# 模型报告

## 如何获取模型报告？  &#x20;

&#x20;       本平台不仅可以将训练完成的模型下载下来进行后续的机器学习工作，还可以通过可视化的方式更加直观的展示当前模型的相关重要信息，这对机器学习模型的研究提供了重要依据。

&#x20;       用户可以在建模列表中对应的建模任务中点击 【下载报告】 即可获取模型报告，如下图：

<figure><img src="https://2865174764-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2F35qo4yVdf24OsDDvR8Ix%2Fuploads%2FU0meQnmcs4sFiH1ea5HK%2F%E9%AB%98%E7%BA%A7%E5%8A%9F%E8%83%BD-%E4%B8%8B%E8%BD%BD%E6%8A%A5%E5%91%8A.jpg?alt=media&#x26;token=66574d02-3258-42ba-b5c5-403507e51b05" alt=""><figcaption></figcaption></figure>

&#x20;       下载之后可以获取到一个名称为report\_\*.zip压缩文件，通过解压工具解压之后即可获取模型报告内容。

{% hint style="info" %}
模型报告下载示例可参考：《附录-2：模型报告示例》
{% endhint %}

## 模型报告解读

&#x20;       本平台会自动为用户生成压缩之后的模型报告，解压缩之后的内容大致如下：

<figure><img src="https://2865174764-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2F35qo4yVdf24OsDDvR8Ix%2Fuploads%2FAM8hJEkNgalNt9wfyVCM%2Ffile_struct.png?alt=media&#x26;token=8a0d95bf-248b-43af-a80a-907ca715ce07" alt=""><figcaption></figcaption></figure>

{% hint style="info" %}
其中包括了原始图片文件夹、以及不同格式的报告文件（支持Word，PDF和Markdown）。
{% endhint %}

&#x20;       下面我们会通过一个分类任务的模型报告为大家如何查阅报告中的相关内容。

&#x20;       本平台提供的报告包括了训练数据的**特征空间分布**、**模型可视化**、**验证数据**的各类指标三个方面。

## 一、特征空间分布

{% hint style="info" %}
高级特征是从不同的方向更深入地解释数据。下面使用的几种描述特征指标的手段不能衡量出特征表达能力的全部维度，特征彼此之间并不是替代关系，拥有同等的重要性。
{% endhint %}

&#x20;       特征空间分布可以简单分为两个方面，可以简单地分为训练前和后。训练前，通过特征空间的分布，从而去选择合适的特征和模型 进行训练。例如可以通过大部分特征是否有线性关系去选择模型。训练后，如果使用的是树模型的话，我们将得到每个特征的贡献值，可以通过这个贡献程度来反复调整我们训练的模型，也可以通过特征重要性来体现生成特征的有效性。

{% hint style="info" %}
出于报告篇幅和简洁性的考虑，我们这里只对**处理过后的数据**进行分析，并只输出部分数据。

如需要对**原始数据**或者**编码**分析，那么可以使用C**hangTianML工具**进行分析。
{% endhint %}

### 1. 训练前的数据分析

#### **1.1 热力图 (Heat Map)**

{% hint style="info" %}
**热力图**表示的是**特征之间的相关性。**

这里展示的是模型**特征重要性前10**的特征与标签的相关性。
{% endhint %}

&#x20;       这里计算的相关系数是皮尔逊相关系数（Pearson correlation coefficient），其公式如下：

$$
\rho\_{X,Y} = \frac{{\text{{cov}}(X,Y)}}{{\sigma\_X \sigma\_Y}}
$$

&#x20;       皮尔逊相关系数衡量了两个变量之间的线性相关性，其取值范围为-1到1。具体而言：

* 1 表示完全正相关：一个变量增加，另一个变量也以相等的比例增加。
* 0 表示无相关性：两个变量之间没有线性关系。
* -1 表示完全负相关：一个变量增加，另一个变量以相等的比例减少。

<figure><img src="https://2865174764-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2F35qo4yVdf24OsDDvR8Ix%2Fuploads%2F4vKeZIt3iEnI8UFicHeO%2Ffeature_space1.png?alt=media&#x26;token=281115c3-e9d7-40ff-962a-866107dfcc7b" alt=""><figcaption></figcaption></figure>

#### **1.2 特征核密度图 (Kernel Density Estimation, KDE)**

{% hint style="info" %}
核密度估计（Kernel Density Estimation，简称KDE）是一种用于估计概率密度函数的非参数方法。它通过在每个数据点周围放置一个核（通常是正态分布的核），然后将这些核叠加起来，形成平滑的估计概率密度函数。

目前我们选择的是特征贡献度最大的高级特征或者原始特征进行核密度估计。
{% endhint %}

&#x20;       核密度估计图可以帮助你了解**单个变量**的**分布情况**，包括峰值和分布的形状。可以从以下二个方面进行对数据的分析。

1. **峰值（Peak）：** 峰值表示概率密度估计图中最高点的高度。
   * 在KDE中，峰值**越高**，表示在该位置的**数据点密度越大**，即该位置附近的数据点更为集中。
   * 峰值的高度并不直接给出概率值，但可以用于比较不同位置的数据密度。
2. **整体形状：** 概率密度估计图的整体形状反映了数据分布的趋势。
   * 图形的平滑性和波动性可用于判断**数据的变异性**。
   * 例如，平坦的KDE图表明数据相对均匀地分布，而具有峰值和波动的图形可能表示数据在某些区域更为密集。

<figure><img src="https://2865174764-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2F35qo4yVdf24OsDDvR8Ix%2Fuploads%2Fhn1huzsRXx0dd2d93jpJ%2Ffeature_space2.png?alt=media&#x26;token=24874411-395b-44d1-8cf4-d6c510e3102c" alt=""><figcaption></figcaption></figure>

#### **1.3 箱线图 (Box Plot)**

{% hint style="info" %}
箱线图是一种用于可视化数据分布和离群值的有效工具。

目前我们选择的是特征贡献度最大的高级特征或者原始特征进行箱线图的绘制。
{% endhint %}

&#x20;       在分析箱线图时，你可以关注以下几个关键的要素：

1. **箱体（Box）：** 箱体显示了数据的四分位数范围，即数据的中间50%。
   * 箱体的底部和顶部分别表示第1四分位数（Q1，下四分位数）和第3四分位数（Q3，上四分位数），而箱体内部的线表示中位数（Q2）。
2. **须（Whiskers）：** 须延伸从箱体的两端，表示数据的最大值和最小值，但不考虑异常值。
   * 须的长度通常基于数据的分布，具体的计算方式可能有所不同。
3. **异常值（Outliers）：** 在箱线图中，通常将超出须的1.5倍四分位距的数据点定义为异常值，并用点表示。
   * 异常值可能是数据集中的离群值。
4. **整体形状：** 观察箱线图的整体形状可以提供关于数据分布的信息。
   * 例如，箱体的长度和位置，须的延伸情况，以及异常值的分布等。

<figure><img src="https://2865174764-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2F35qo4yVdf24OsDDvR8Ix%2Fuploads%2FNv5RJkFp0TuWsAMHCw2m%2Ffeature_space3.png?alt=media&#x26;token=b1af9db3-d035-4c78-a887-8b336c30d9b0" alt=""><figcaption></figcaption></figure>

#### **1.4 特征和标签的特征曲线图**

{% hint style="info" %}
查看特征和标签的趋势变化是否一致有助于构建更有效、解释性更强、泛化性能更好的机器学习模型。

目前我们选择的是特征贡献度最大的高级特征或者原始特征进行曲线绘制的，并选取前100个样本显示。
{% endhint %}

&#x20;       **为了方便比较，我们将特征归一化到\[1, 2]之间，把标签归一化到\[0, 1]之间。**

<figure><img src="https://2865174764-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2F35qo4yVdf24OsDDvR8Ix%2Fuploads%2FJ9NoFoXN5tPv3vg4IfZn%2Ffeature_space4.png?alt=media&#x26;token=ff133d28-4147-4190-89f3-b07df95618ad" alt=""><figcaption></figcaption></figure>

### 2.训练后的特征分析

#### **2.1 特征重要性**

&#x20;       每个特征对于树模型提供的贡献程度，以下是常见树模型的特征重要性分数的简介。

1. **LightGBM:**
   * LightGBM使用基于树的学习算法，特征重要性主要基于**分裂增益（Split Gain）**。
2. **CatBoost:**
   * CatBoost也是基于树的学习算法，其特征重要性计算方式与LightGBM相似，主要基于**分裂增益**。
3. **XGBoost:**
   * XGBoost通过计算特征的**增益（Gain）**&#x6765;评估特征的重要性。
   * XGBoost还提供了一种基于覆盖度（Coverage）的特征重要性计算方式，覆盖度表示每个特征在树中的使用频率。
4. **随机森林:**
   * 随机森林使用**基尼不纯度（Gini impurity）**&#x6216;信息增益（Information Gain）等指标来选择最佳的分裂特征。
   * 这些次数的总和或者平均值可以用于衡量特征的重要性。
5. **极限树（Extra Trees）:**
   * 极限树是随机森林的一种变体，它在节点分裂时使用了更多的随机性。
   * **特征重要性的计算方式与随机森林类似**。

{% hint style="info" %}
树模型在分裂的时候，可能会多次用到同一个特征，其特征重要性是这几个节点加权平均，不同模型的策略不同。
{% endhint %}

<figure><img src="https://2865174764-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2F35qo4yVdf24OsDDvR8Ix%2Fuploads%2F3o9esdKEiSTB0IJxpwnB%2Ffeature_importance1.png?alt=media&#x26;token=cef7627a-d4a4-404b-a76a-c566605c03b9" alt=""><figcaption></figcaption></figure>

### 3. 如何数据分析

&#x20;       机器学习的一般**人工构建流程**如下：

&#x20;    （1）**数据分析**，了解数据的分布情况，例如：

* **查看是否有冗余：**&#x4E00;般情况下，如果**热力图**中特征之间的相关系数绝对值大于0.8，就应该慎重考虑特征选择。
* **查看特征和标签的相关性：**&#x4E00;般情况下，如果**热力图**中特征和标签之间的相关系数越高特征重要性可能越高。
* **查看特征的概率密度分布：**&#x5224;断数据是否密集，密集可能导致区分度很小。
* 其他方法

&#x20;     （2）**特征工程**

&#x20;       通过第一步的数据分析进行特征的生成，例如：**特征A**和**特征B**相关度很低，那么将**特征A**和**特征B**简单的组合（比如加减乘除）得到**特征C**，那么**特征C**可能对于模型的帮助会很大。

&#x20;       举一个简单的例子，例如我们评测身体的肥胖程度。我们有身高$$h$$，体重$$w$$这两个特征，通过特征组合发现了$$w \div h^2$$这样一个特征。

&#x20;       这个特征对于分类有重大的贡献，那这就是**BMI**，给他赋予身体质量指数的物理含义，用于衡量人体肥胖程度。

&#x20;      （3）**模型调优**

&#x20;       模型调优主要分为两部分：**选择最合适的模型**和**选择最优的模型参数**。

&#x20;       特征工程和模型调优一般是一起的，可以简单理解，不同的数据集，那么就应该对应不同的最优模型。那这两个步骤将需要花费大量的时间和精力去实现。

{% hint style="info" %}
**使用ChangTianML的数据分析：**

（1）您已经得到了有效的特征生成组合，那么可以反向推理**新特征的物理含义**，例如：以BMI为例（$$w \div h^2$$），那我们可以解释：为了考虑不同身高的肥胖程度我们采用了除法，平方项的引入使得该指标对于身高的变化更为敏感，从而更好地反映体重相对于身高的比例。

（2）如果需要更加详尽的数据详情，那么可以使用C**hangTianML工具**进行分析。
{% endhint %}

## 二、模型可视化

{% hint style="info" %}
模型可视化目前只支持LightGBM，如果最终模型不是LightGBM，那么可能没有生成这部分的图片。

其他模型的可视化正开发中，敬请期待！
{% endhint %}

### 1. 树模型的结构可视化

{% hint style="info" %}
树模型可视化的重要性：

1. 树模型作为一种可解释的模型，你可以清晰地看到每个决策节点的分裂条件以及叶子节点的预测结果。这有助于理解模型是如何基于输入特征进行预测的，使得模型的工作过程更加透明和可解释。
2. 可以了解特征对于预测结果的影响，例如特征A在某个阈值下是否把数据分到正确的类别中了。
3. 可视化树模型有助于向非专业人员、利益相关者或团队成员解释模型的工作原理。
   {% endhint %}

&#x20;       下面介绍多种树模型的显示方式。

**树模型图的解释**

* 选择特征$$X\_i$$，特征$$X\_i$$会根据阈值$$S\_i$$进行分裂，左边是小于等于阈值$$S\_i$$，右边则反之。
* 如果分裂的样本中得到较好的结果，则停止分裂，反之继续选择特征$$X\_i$$分裂。
* 重复步骤上面两个步骤直到所有样本都被分配完成。

**（1）树模型的竖向展开图**

<figure><img src="https://2865174764-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2F35qo4yVdf24OsDDvR8Ix%2Fuploads%2FtCRoECJvKZttp6SQiDQq%2Ftree_structure1.svg?alt=media&#x26;token=206c1f6d-07f9-46e1-829a-57a7a972b84d" alt=""><figcaption></figcaption></figure>

**（2）树模型的横向展开图**

<figure><img src="https://2865174764-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2F35qo4yVdf24OsDDvR8Ix%2Fuploads%2FG0oDJAK5wkMypx5nM0sX%2Ftree_structure2.svg?alt=media&#x26;token=84839ed3-4fe0-4d97-9701-055a2139fdaf" alt=""><figcaption></figcaption></figure>

**（3）树模型的简化展开图**

<figure><img src="https://2865174764-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2F35qo4yVdf24OsDDvR8Ix%2Fuploads%2Frj4DFWUzQBtHXBIhVjxA%2Ftree_structure3.svg?alt=media&#x26;token=603d1cc5-4dd2-4b77-a36c-394958019aaf" alt=""><figcaption></figcaption></figure>

**（4）树模型的浅层展开图**

<figure><img src="https://2865174764-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2F35qo4yVdf24OsDDvR8Ix%2Fuploads%2FlegddZj6RbYII25EhqoR%2Ftree_structure4.svg?alt=media&#x26;token=2e38cce9-dfa1-42ae-91f0-290cc39bb3b2" alt=""><figcaption></figcaption></figure>

### 2. 决策树的预测路径

{% hint style="info" %}
决策树的预测路径可以具象化看到模型是如何判断某个样本属于哪个类别的过程。
{% endhint %}

#### **决策树的全部预测路径**

&#x20;       预测路径已用橙色的框标示出来，随机抽一个测试集的样本并在下方列出样本的具体信息。

<figure><img src="https://2865174764-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2F35qo4yVdf24OsDDvR8Ix%2Fuploads%2FwACZBueoLRjMVtAecunx%2Fprediction_path1.svg?alt=media&#x26;token=d111f680-2148-4150-956f-5be96f2029ef" alt=""><figcaption></figcaption></figure>

**决策树的预测路径简化**

<figure><img src="https://2865174764-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2F35qo4yVdf24OsDDvR8Ix%2Fuploads%2FFl1Mb8weHnrhBWNtqyk8%2Fprediction_path2.svg?alt=media&#x26;token=ed795128-e464-4060-807b-80f39e31ab6d" alt=""><figcaption></figcaption></figure>

### 3. 树叶子节点样本树的统计

{% hint style="info" %}
树模型的各个叶子节点训练的时候包含了多少样本的统计。
{% endhint %}

<figure><img src="https://2865174764-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2F35qo4yVdf24OsDDvR8Ix%2Fuploads%2FdhVZhS70AZKkv4dNsQu5%2Fleaf_info1.png?alt=media&#x26;token=3235c1af-5024-4bc6-97da-e9c27ae9210c" alt=""><figcaption></figcaption></figure>

{% hint style="info" %}
树模型的各个叶子节点训练的时候包含了多少样本的统计，以及每个叶子节点有多少属于各个类别。
{% endhint %}

<figure><img src="https://2865174764-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2F35qo4yVdf24OsDDvR8Ix%2Fuploads%2F5lik0hHp2OB9JiDokBDU%2Fleaf_info2.png?alt=media&#x26;token=d539d3a4-f204-47b2-9f20-6f6d92474d5f" alt=""><figcaption></figcaption></figure>

## 三、验证集指标

{% hint style="info" %}
ROC曲线和混淆矩阵目前只支持输出类别小于等于5种的分类任务。
{% endhint %}

### **1. ROC曲线**

&#x20;       ROC曲线（Receiver Operating Characteristic Curve）是一种用于评估分类器性能的图形工具。主要关注两个重要的性能指标：True Positive Rate (**TPR**) 和 False Positive Rate (**FPR**)。

{% hint style="info" %}
**True Positive Rate (敏感度或召回率):** TPR表示在所有实际正例中，模型成功识别为正例的比例。在ROC曲线上，TPR对应纵轴，范围从0到1。

**False Positive Rate (假正例率):** FPR表示在所有实际负例中，模型错误识别为正例的比例。在ROC曲线上，FPR对应横轴，范围同样从0到1。
{% endhint %}

**意义和用途：**

1. **模型比较：** ROC曲线提供了一种比较不同模型性能的可视化工具。曲线下的面积（AUC）用于量化不同模型在整个ROC空间下的性能，AUC越大，表示模型性能越好。
2. **阈值选择：** ROC曲线可以帮助选择分类阈值。不同应用场景可能对False Positive Rate和True Positive Rate有不同的关注程度，通过调整分类阈值，可以在这两者之间找到平衡。
3. **诊断性能：** ROC曲线能够展示模型在不同工作点下的性能，从而帮助你理解模型的诊断性能，特别是在二分类问题中。
4. **不受类别不平衡影响：** ROC曲线对于类别不平衡的问题更为鲁棒，因为它是基于真正例率和假正例率的比例关系。

<figure><img src="https://2865174764-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2F35qo4yVdf24OsDDvR8Ix%2Fuploads%2Fn7mxuwm2TRuMPHOzWasQ%2Fvalid_metirc1.png?alt=media&#x26;token=40d5f06b-74d0-4130-858b-a138c893b36a" alt=""><figcaption></figcaption></figure>

### **2. 混淆矩阵**

{% hint style="info" %}
验证集指标(Accuracy, Recall，Precision，F1)可以在ChangTianML任务的日志的AutoML得到。
{% endhint %}

1. **真正例（True Positives，TP）：** 模型正确地将正例样本预测为正例。
2. **真负例（True Negatives，TN）：** 模型正确地将负例样本预测为负例。
3. **假正例（False Positives，FP）：** 模型将负例样本错误地预测为正例。
4. **假负例（False Negatives，FN）：** 模型将正例样本错误地预测为负例。

**混淆矩阵的意义和用途：**

1. **性能评估：** 混淆矩阵提供了一个全面的性能评估，可以直观地了解模型在不同类别上的预测准确性。
2. **精确度（Accuracy）计算：** 精确度是分类器正确预测的总样本数占总样本数的比例，可以通过混淆矩阵计算。$$Accuracy=\frac{True Positives + True Negatives}{Total Samples}$$，该任务的准确率为: 0.7847533632286996。
3. **召回率（Recall）计算：** 召回率（也称为敏感度或真正例率）表示模型正确识别的正例样本在所有实际正例样本中的比例。$$Recall=\frac{True Positives}{True Positives + False Negatives}$$，该任务的召回率为: 0.7847533632286996。
4. **精确度（Precision）计算：** 精确度表示模型预测为正例的样本中，实际为正例的比例。$$Precision=\frac{True Positives}{True Positives + False Positives}$$，该任务的精确率为: 0.7839107317605237。
5. **F1分数计算：** F1分数是精确度和召回率的调和平均，用于综合考虑模型的准确性和全面性。$$F1=\frac{2×Precision×Recall}{Precision+Recall}$$，该任务的f1为: 0.7842670856605463。

<figure><img src="https://2865174764-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2F35qo4yVdf24OsDDvR8Ix%2Fuploads%2FRXkvZAIviicsBsOR4eHo%2Fvalid_metirc2.png?alt=media&#x26;token=bb6cafd7-b9b6-4ada-8bbf-70872094e8b6" alt=""><figcaption></figcaption></figure>

## 附录-1：高级特征与特征贡献度对应表

{% hint style="info" %}
模型在可视化的时候捆绑特征可能看不清楚，可以通过下表查询相应的高级特征以及特征贡献度。
{% endhint %}

### 高级特征

* $$AdvFeat1：(Ticket\div Fare)\div (cos(Ticket))$$
* $$AdvFeat2：(cos(Fare))\div (Ticket\div Age)$$
* $$AdvFeat3：((cos(Fare))\div (sin(Ticket)))\div (Min((Fare\div Age)(AggMax(Age,Cabin))$$
* $$AdvFeat4：(cos(Fare))\times (Ticket\div Age)$$
* $$AdvFeat5：Min(((sin(Ticket))-(Age+Ticket)))((cos(Fare))\div (sin(Ticket))))$$
* $$AdvFeat6：((sin(Ticket))\times (cos(Fare)))\times (Max((Age\times Ticket)(Ticket\div Fare)))$$
* $$AdvFeat7：(cos(Fare))\div (Fare\times Ticket)$$
* $$AdvFeat8：(cos(Ticket))\div (Fare+Ticket)$$
* $$AdvFeat9：(cos(Ticket))\div (Fare\times Ticket)$$
* $$AdvFeat10：(Ticket\div Age)\div (cos(Fare))$$
* $$AdvFeat11：(Fare\times Ticket)\div (cos(Ticket))$$
* $$AdvFeat12：(Fare+Ticket)-(sin(Ticket)))$$
* $$AdvFeat13：(Ticket\div Age)+(Fare+Ticket))$$
* $$AdvFeat14：(cos(Fare))-(Fare+Ticket))$$
* $$AdvFeat15：(Ticket\div Fare)\div (cos(Fare))$$
* $$AdvFeat16：(sin(Ticket))\div (Ticket\div Age)$$
* $$AdvFeat17：(cos(Fare))\times (Fare\times Ticket)$$
* $$AdvFeat18：(Fare+Ticket)\div (cos(Ticket))$$
* $$AdvFeat19：(Fare+Ticket)\div (cos(Fare))$$
* $$AdvFeat20：Max(((cos(Fare))+(cos(Ticket))))(Min((Fare\times Ticket)(Fare\div Age))))$$
* $$AdvFeat21：((cos(Ticket))-(sin(Ticket))))-(Max((Age\times Ticket)(Ticket\div Fare))))$$
* $$AdvFeat22：Max(((cos(Fare))-(cos(Ticket))))((cos(Ticket))\div (sin(Ticket))))$$
* $$AdvFeat23：(cos(Fare))\div (Fare+Ticket)$$
* $$AdvFeat24：((cos(Fare))\times (cos(Ticket)))\times (sin(sin(Ticket)))$$
* $$AdvFeat25：(sin(Ticket))\div (Fare\times Ticket)$$
* $$AdvFeat26：(Fare\times Ticket)\div (cos(Fare))$$
* $$AdvFeat27：(cos(Fare))+(Fare+Ticket))$$
* $$AdvFeat28：Max((cos(Fare))(cos(Ticket)))$$
* $$AdvFeat29：Count(Sex)$$

### 特征贡献度

* $$AdvFeat1：35.55555555555556$$
* $$AdvFeat2：62.22222222222222$$
* $$AdvFeat3：68.88888888888889$$
* $$AdvFeat4：31.11111111111111$$
* $$AdvFeat5：11.11111111111111$$
* $$AdvFeat6：20.0$$
* $$AdvFeat7：17.77777777777778$$
* $$AdvFeat8：40.0$$
* $$AdvFeat9：35.55555555555556$$
* $$AdvFeat10：24.444444444444443$$
* $$AdvFeat11：26.666666666666668$$
* $$AdvFeat12：55.55555555555556$$
* $$AdvFeat13：22.22222222222222$$
* $$AdvFeat14：26.666666666666668$$
* $$AdvFeat15：31.11111111111111$$
* $$AdvFeat16：37.77777777777778$$
* $$AdvFeat17：15.555555555555555$$
* $$AdvFeat18：44.44444444444444$$
* $$AdvFeat19：17.77777777777778$$
* $$AdvFeat20：15.55555555555555$$
* $$AdvFeat21：44.44444444444444$$
* $$AdvFeat22：46.666666666666664$$
* $$AdvFeat23：22.22222222222222$$
* $$AdvFeat24：28.888888888888886$$
* $$AdvFeat25：40.0$$
* $$AdvFeat26：13.333333333333334$$
* $$AdvFeat27：20.0$$
* $$AdvFeat28：53.333333333333336$$
* $$AdvFeat29：11.11111111111111$$

## 附录-2：模型报告示例

{% file src="<https://2865174764-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2F35qo4yVdf24OsDDvR8Ix%2Fuploads%2Fz9TRn4V1J7Xfpjzh7e5B%2Freport_example.zip?alt=media&token=3728d187-c514-4621-9a71-d8ad49f9859a>" %}
