貝葉斯神經網絡(bnn)指擴展後的標準網絡推理為了控製過度學習。從更廣泛的角度來看,貝葉斯方法使用統計方法,這樣一切都附加一個概率分布,包括模型參數(神經網絡權重和偏見)。在編程語言中,變量可以取特定值將相同的結果每次訪問特定變量。讓我們從一個簡單的線性模型的修正,將預測輸出的加權和一係列的輸入特性。
相比之下,在貝葉斯的世界裏,你可以有類似的實體也稱為隨機變量,這將給你一個不同的值每次訪問它。貝葉斯而言,曆史數據代表我們的先驗知識的整體行為每個變量都有它自己的隨時間變化的統計特性。假設X是代表了正態分布的隨機變量,每次X訪問,返回的結果會有不同的價值觀這一過程的一個新值從一個隨機變量稱為抽樣。什麼價值出來取決於隨機變量的概率分布有關。這意味著,在參數空間中,我們可以推斷出神經網絡的學習的性質和形狀參數。最近有很多活動在這一領域,隨著大量的出現概率PyMC3等編程庫,愛德華,斯坦等。貝葉斯方法被用於很多領域:從遊戲開發藥物發現。而不是考慮單個回答一個問題,貝葉斯方法允許你考慮整個分布的答案。使用這種方法,您可以自然地解決問題,例如: