2024-10-16, 22:19-今日內容

PCA 在sklearn里 是数据数据降低维度的方法。所以是在decomposition里, 数据数据分解技术。 要用它 主要就是… Nvim 跳转到这个method的开头, 或者下一个method的开头。 直接按[ Pearson 系数的相关性: 我们一般对于0。5以上的说他有中等的相关性。 0.7 以上就是非常强的相关性了。 Pearson 系数 直接反映两个变量是正向变化还是逆向变化。 系数为零就是直接啥关系也没有。 我们只需要写subsection的标题进入他的花括号, 是吧。 然后接下来我们有啥也不写, 下一个自然段默认是我们的subsection… [\sum (x_i - \bar{x})^2 \sum (y_i - \bar{y})^2] Latex 在overleaf上不能编译中文 左上角menu 切换compiler, xelatex可以用, 并在main.tex… 行内公式latex

🐿️🐿️🐿️🐿️🐿️🐿️🐿️🐿️🐿️🐿️🐿️🐿️下一個筆記🐿️🐿️🐿️🐿️🐿️🐿️🐿️🐿️🐿️🐿️🐿️🐿️🐿️

PCA 在sklearn里 是数据数据降低维度的方法。所以是在decomposition里, 数据数据分解技术。 要用它 主要就是… PCA 在sklearn里 是数据数据降低维度的方法。所以是在decomposition里, 数据数据分解技术。 要用它 主要就是。主要就是创建一个model, 然后将我们标准化后的数据用model进行fit。 from sklearn.decomposition import PCA

def apply_pca(X, standardize=True): # Standardize if standardize: X = (X - X.mean(axis=0)) / X.std(axis=0) # Create principal components pca = PCA() X_pca = pca.fit_transform(X) # Convert to dataframe component_names = [f”PC{i+1}” for i in range(X_pca.shape[1])] X_pca = pd.DataFrame(X_pca, columns=component_names) # Create loadings loadings = pd.DataFrame( pca.components_.T, # transpose the matrix of loadings columns=component_names, # so the columns are the principal components index=X.columns, # and the rows are the original features ) return pca, X_pca, loadings

🐿️🐿️🐿️🐿️🐿️🐿️🐿️🐿️🐿️🐿️🐿️🐿️下一個筆記🐿️🐿️🐿️🐿️🐿️🐿️🐿️🐿️🐿️🐿️🐿️🐿️🐿️

Nvim 跳转到这个method的开头, 或者下一个method的开头。 直接按[ 然后m是开头, M是结尾。 [ 是往上选择,] 是往下选择。

🐿️🐿️🐿️🐿️🐿️🐿️🐿️🐿️🐿️🐿️🐿️🐿️下一個筆記🐿️🐿️🐿️🐿️🐿️🐿️🐿️🐿️🐿️🐿️🐿️🐿️🐿️

Pearson 系数的相关性: 我们一般对于0。5以上的说他有中等的相关性。 0.7 以上就是非常强的相关性了。 0.4 表示变量之间存在正相关关系,虽然相关性不算特别强,但确实存在。一般来说,相关系数可以根据绝对值大小分为以下几个等级:

0.0 - 0.1:几乎无相关性

0.1 - 0.3:弱相关性

0.3 - 0.5:中等相关性

0.5 - 0.7:较强相关性

0.7 - 1.0:非常强相关性

因此,0.4 表示中等相关性。 这里有个例子:

In [16]: print(df[features].corrwith(df.SalePrice)) GarageArea 0.623431 YearRemodAdd 0.507101 TotalBsmtSF 0.613581 GrLivArea 0.708624。可以看出GrLivArea 就是最强的相关性

🐿️🐿️🐿️🐿️🐿️🐿️🐿️🐿️🐿️🐿️🐿️🐿️下一個筆記🐿️🐿️🐿️🐿️🐿️🐿️🐿️🐿️🐿️🐿️🐿️🐿️🐿️

Pearson 系数 直接反映两个变量是正向变化还是逆向变化。 系数为零就是直接啥关系也没有。 他的本质其实就是用协方差/ std来的/具体公式如下: 我们其实只需要cov也就是协方差, 但是为了标准化,我们就让cov去除了两个变量的std的乘积。 目的是为了让r也就是pearson 处在-1 到1 之间。  

🐿️🐿️🐿️🐿️🐿️🐿️🐿️🐿️🐿️🐿️🐿️🐿️下一個筆記🐿️🐿️🐿️🐿️🐿️🐿️🐿️🐿️🐿️🐿️🐿️🐿️🐿️

我们只需要写subsection的标题进入他的花括号, 是吧。 然后接下来我们有啥也不写, 下一个自然段默认是我们的subsection… 我们只需要写subsection的标题进入他的花括号, 是吧。 然后接下来我们有啥也不写, 下一个自然段默认是我们的subsection里面的正文内容. Latex的subsection不需要想documnet一样写en \end {document} 使用 \subsection{标题} 时,这个命令会自动开启一个新的子节标题,不需要额外的结束命令 \end{subsection}。接下来的内容将默认属于这个子节的正文部分,直到你使用下一个章节命令(如 \section、\subsection 等)或文档结束

🐿️🐿️🐿️🐿️🐿️🐿️🐿️🐿️🐿️🐿️🐿️🐿️下一個筆記🐿️🐿️🐿️🐿️🐿️🐿️🐿️🐿️🐿️🐿️🐿️🐿️🐿️

[\sum (x_i - \bar{x})^2 \sum (y_i - \bar{y})^2] 等同于:

[\sum (x_i - \bar{x})^2 \cdot \sum (y_i - \bar{y})^2] 这两种乘法的写法在latex 都是被接受的。 因为默认可以乘法的符号可以省略。

🐿️🐿️🐿️🐿️🐿️🐿️🐿️🐿️🐿️🐿️🐿️🐿️下一個筆記🐿️🐿️🐿️🐿️🐿️🐿️🐿️🐿️🐿️🐿️🐿️🐿️🐿️

Latex 在overleaf上不能编译中文 左上角menu 切换compiler, xelatex可以用, 并在main.tex… Latex 在overleaf上不能编译中文 左上角menu 切换compiler, xelatex可以用, 并在main.tex 包含package: \usepackage{ctex} % For Chinese support \usepackage{amsmath} % Required for the Pearson formula

🐿️🐿️🐿️🐿️🐿️🐿️🐿️🐿️🐿️🐿️🐿️🐿️下一個筆記🐿️🐿️🐿️🐿️🐿️🐿️🐿️🐿️🐿️🐿️🐿️🐿️🐿️

行内公式latex ( …… ) 行间公式[ …. ] 永远都是\开头, 然后行内是小圆括号, 行间就是中括号。

#匯總今日內容