波士頓房價數據分析 (1)
數據描述
作為一個剛接觸數據科學的化工學生
本篇算是一個學習過程的小練習
我會提到如何使用MATLAB作簡單的線性迴歸分析
以及如何將高維度的數據“降維”以直觀解釋數據的內在結構
我使用現在機器學習領域很熱門的經典波士頓房價數據(Boston housing dataset)集做分析
這個數據集的用意是統計各種環境以及人為因素對房價的影響
總共有例如房間數,房屋稅率等總共13項影響房價中位數(MEDV)的因素
- CRIM:每人平均犯罪率
- ZN:居住區中高於25000平方英尺的停車場所佔土地比例
- INDUS:非零售企業佔地英畝數
- CHAS:查爾斯河亞變數(1代表包圍河,0代表沒有)
- NOX:氧化氮濃度(單位為千萬分之一)
- RM:平均房間數
- AGE: 1940年前建造之房東自用比例(屋齡)
- DIS:到五個波士頓工作中心的加權平均距離(上班通勤難易度)
- RAD:到達放射狀高速公路的難易程度(城內移動的難易度)
- TAX:房屋稅
- PTRATIO:學生與教師比例(學區好壞)
- B:與黑人占比呈正相關的數字(種族因素)
- LSTAT:低端人口比例
- MEDV:房價中位數
線性迴歸分析
但是這套數據很完善故可跳過整理的步驟
最簡單的就是線性迴歸了
如果我們將所有因素影響力以矩陣A表示並將房價以向量b表示
我們只需要找到關係式Ax = b中的係數矩陣x
在MATLAB中x可以透過簡單的regress函數達成
然而為了避免關係式中出現“非零截距”
可以在A矩陣的最後一列(column)後面加上所有元素為1的列
- %% Import the Boston housing dataset
- close all;clc;clear all;
- Data = readtable('Boston.csv');
- % The median value of owner-occupied homes
- b = table2array(Data(:,14));
- % Other variables
- A = table2array(Data(:,1:13));
- A = [A ones(size(A,1),1)];
一般來說機器學習(其實粗略來說就是某種迴歸模型)會需要將數據分成“訓練集”以及“測試集”
但是作為一個簡單的練習我就省略了這個步驟
去除高度相關的影響因子
一個好的線性迴歸模型有一個重要的步驟就是要確保所有影響因素之間是互相獨立的
我們可以計算數據的相關矩陣(correlation matrix)
當數字的絕對值越接近1就代表越相關
如果兩個影響因素相關性太高(一般可以取大於0.7)
我們就可以考慮把“多餘”的因素剔除
- %% Correlation matrix
- figure(1)
- % Calculate the correlation coefficients
- R = corrcoef(A(:,1:13));
- k = Data.Properties.VariableNames(1,1:13);
- x_label = string(k);
- xvalues = x_label;
- yvalues = x_label;
- % Plot the correlation matrix using a heatmap
- h = heatmap(xvalues,yvalues,R);
- h.CellLabelFormat = '%.2f'
- h.Title = "Correlation matrix";
![]() |
Boston housing dataset各因素間的相關係數矩陣 |
藉由上圖我們可以發現tax和rad兩項因素的相關性高達0.91
同樣我們可以發現indus, nox, age, dis和前兩項因素相關性相當高
我最後在這六項高度相關的因素中只保留了tax
- %% Remove redundant columns
- A(:,[3 5 7 8 9]) = [];
- % Perform a linear regression
- x = regress(b,A);
- % x is calculated such that Ax = b
- %% Plot the MHV against neighborhood
原始數據與模型預測比較
接著我們就可以利用建立好的模型比較模型預測與原數據測試準確度
我也利用房價做了簡單的排序
可以發現預測並非完美
但尚可接受
- % Unsorted
- figure(2)
- subplot(1,2,1)
- plot(b,'k-o'); hold on
- xlabel('Neighborhood');
- ylabel('Median home value');
- plot(A*x,'r-o');
- legend('Raw','Regression')
- % Sorted
- subplot(1,2,2)
- [b,sortind] = sort(b);
- plot(b,'k-o');hold on
- plot(A(sortind,:)*x,'r-o')
- xlabel('Neighborhood');
- ylabel('Median home value');
- legend('Raw','Regression')
- hold off
![]() |
Boston housing dataset總共包含506戶的資料,線性迴歸可以用來建立預測模型。黑色為原始資料分佈;紅色是線性迴歸模型擬合的結果。右圖僅是左圖依房價做排序 |
t-SNE:降維數據可視化
接著我想知道這組14維的數據呈現什麼樣的內在結構
利用降維 (Dimensionality reduction)的方法
我們可以把高維度的數據轉換為容易讓人類了解的二維或三維數據並畫成圖
一般基礎的統計學會利用奇異值分解(singular value decomposition)
擷取出數據間變異程度最高的組成作為新的維度,
即為主成份分析(principal component analysis),或簡稱PCA
然而PCA常常會使數據在低維度的表示中“擠成一團”
十幾年前有一個稱為t-distributed stochastic neighbor embedding (t-SNE)的方法問世
簡單來說就是利用學生t分佈的尾端比一般的常態分佈還要平緩
q_{ij}=\frac{{(1+{\left \| \mathbf{y_{i}-y_{j}} \right \|}^{2})}^{-1}}{\sum _{k}\sum _{l\neq k}{(1+{\left \| \mathbf{y_{k}-y_{l}} \right \|}^{2})}^{-1}}
藉由保持高維度和低維度轉換前後數據間的“距離分佈”來得到不至於擠成一團的低維度表示
上式就是自由度為1的學生t分佈表達式
有趣的是我們可以控制數據點周遭有多少“鄰居”
藉由改變稱為"perplexity"的超參數
我們就可以在低維度選擇要呈現局部(local)點的關係或者廣域(global)的數據結構
太大或太小的perplexity都不好
由於各種因素單位不盡相同
為了避免降維過程演算法偏袒某個因素
我先將個別因素做標準化(就是平均值為零,標準差為1的變換)
- %% t-SNE dimensionality reduction
- figure(3)
- % Rescale the attribute matrix A
- A_rescaled = normalize(A);
- A_rescaled(:,end) = [];
- % Specify the hyperparameter "perplexity" for t-SNE
- perplexity = [10 50 200];
- len_p = length(perplexity);
- % Plot t-SNE projection in low dimensions
- for i = 1:len_p
- subplot(1,len_p,i)
- [Y,loss] = tsne(A_rescaled,'Perplexity',perplexity(i),...
- 'NumDimensions',2);
- scatter(Y(:,1),Y(:,2),[],b,'filled');hold on
- colorbar
- colormap default
- xlabel('tSNE1');
- ylabel('tSNE2');
- title("Perplexity = " + num2str(perplexity(i)))
- fprintf('KL divergence is: %.3f',loss)
- end
![]() |
Boston housing dataset的t-SNE低維投影(點擊圖片可放大) |
把房價高低用顏色來標註區別
並把原本13維的數據在二維平面表示
可以發現在適中的perplexity(50)下
t-SNE圖中大略有兩個大集團
分別對應高房價與低房價
可見總共13項影響因素(去除多餘的剩8項)有區別高端低端的能力
注意在t-SNE的演算中我並沒有標記最後的房價
是之後為了視覺化才上色的
顯然t-SNE能夠在未監督(unsupervised)的情況下找尋數據內在結構
並有分類的潛力
雖然有一些高房價的數據在低端集團中分不開(我猜是搞不清楚行情的房東害的?)
大約在2018年有一個最新的降維方法稱作
Uniform manifold approximation and projection (UMAP)問世
主要是由於單細胞定序(single cell sequencing)技術所需要而發展起來的
單細胞定序可以讓我們知道不同基因的表現量
並用降維的方式判斷出是什麼樣的細胞
這在發展生物學的實驗中幾乎是黃金準則
然而單細胞定序原始數據是成千上萬維
一個合適的降維方法就非常重要
t-SNE有許多缺陷
像是運行速度非常緩慢,並且廣域結構難以在低維度被確保等等
本篇僅為練習性質故沒有採用效能更佳的UMAP
有興趣深入了解可以參照Google AI支援的解說
最近寫畢業論文發現data science這個近年來火紅的領域對一般科學領域研究生來說挺有用的
有些概念能夠幫助詮釋實驗數據
或者將冷冰的數據轉化成未來簡化實驗流程的武器
好處多多
Comments
Post a Comment