經由上一篇<<PAC lernability>>的討論,我們還是沒有辦法說學習真的是可行的,為什麼?因為儘管在上一篇的最後已經把過於理想的Realizability assumption 去除了,但是仍舊有一個不太合理的假設我們還沒解決:我們能在訓練資料上表現地很完美,也就是。
讓不好嗎?對,不太好。因為學習的目的是使得 越小越好,而不是。更糟糕的是, 是我們唯一能夠掌握的判斷依據,我們希望的應該是讓 能夠忠實反映出 的情況,如果真實錯誤率很大,訓練錯誤率也會蠻大;真實錯誤率很小,訓練錯誤率也會很小,這樣才是一個理想的學習吧。