隨著AI人工智慧的復興,許多令人不可思議的應用開始浮出檯面,然而,AI的決策過程宛如黑箱作業,人們的未來是否要交由AI技術來決定,逐漸引起討論。在今日(11/9)於日本東京舉辦的NEC iExpo 2017大會,NEC社長新野隆就指出,未來要打開AI黑箱,發展白箱AI(White-Box AI)技術。
AI人工智慧技術正在快速改變世界,在AI人工智慧為世界帶來更多便利的同時,其智慧決策也在決定這個世界未來的樣貌。然而,以深度學習為首的AI技術,其運作過程猶如一個黑箱,把訊息輸入之後,AI技術就輸出一個結果,而外人往往無法理解其演算法的決策依據,甚至就連演算法開發者也難以具體說明AI技術的決策結果。
NEC社長新野隆表示,AI最大的意義是將真實世界的各種資訊數位化,轉換為對人類有價值的決策。首先,影像、視訊、聲音、文件等資訊都數位化之後,就可以進行過去無法做到的分析。雖然社會上已經充滿各種資訊,但數據品質並不好,例如監視攝影機在晚間,或遇到起霧就無法取得有用的資訊,而AI技術首先可用於提升數據的品質。
接著,真實世界的各種資訊都數位化之後,AI技術就能對數據予以分析,再透過各種技術綜合分析提出結果建議,但是,「對於AI最後得出的結果,我們卻無法說明。」新野隆說:「AI技術就像是黑盒子,以圍棋程式AlphaGo為例,為何AlphaGo會出這招,沒人知道,但我們又不得不承認AlphaGo很精明,招數下得妙。」
然而,AI技術分析得出的決策,最終是要對真實世界的決策有所助益,新野隆表示,很多AI技術提出的決策建議,都需要再由人來判斷,然而把關的人若無法理解AI決策的依據,又該如何判斷?最終豈不是全數交由AI來決定。
新野隆表示,NEC未來的AI開發趨勢之一,就是研發白箱AI技術,在以AI技術提供決策建議的同時,也提有效的證據為基礎,讓人們有辦法據以判斷AI的決策建議。
from iThome 新聞 http://ift.tt/2hjaAkI
沒有留言:
張貼留言