1 回答

TA貢獻1836條經(jīng)驗 獲得超3個贊
這種類型的扣除并不完全正確。特征之間的組合不是線性的。確實,如果嚴格為 0 沒有關(guān)系,但它可能會以另一種方式在另一個深層重新組合。
如果您的模型是線性的,那將是正確的。事實上,這就是 PCA 分析的工作原理,它通過協(xié)方差矩陣搜索線性關(guān)系。特征值將指示每個特征的重要性。
我認為有幾種方法可以證實你的懷疑:
消除您認為不重要的特征,再次訓(xùn)練并查看結(jié)果。如果是相似的,那么你的懷疑是正確的。
應(yīng)用當前模型,舉一個例子(我們稱之為樞軸)來評估和顯著改變你認為不相關(guān)的特征并創(chuàng)建許多例子。這適用于多個樞軸。如果結(jié)果相似,則該字段應(yīng)該無關(guān)緊要。示例(我認為第一個功能無關(guān)緊要):
data = np.array([[0.5, 1, 0.5], [1, 2, 5]])
range_values = 50
new_data = []
for i in range(data.shape[0]):
sample = data[i]
# We create new samples
for i in range (1000):
noise = np.random.rand () * range_values
new_sample = sample.copy()
new_sample[0] += noise
new_data.append(new_sample)
添加回答
舉報