熱門文章
人工智能自主學習和事故
發布時間:2018-10-10 分類:交通百科
近年來,隨著科技產業的不斷發展,STEM培訓和研究在學校的重要性日益凸顯。然而,谷歌和斯坦福之前傳出的消息,讓人們有理由相信,未來的希望可能會出現在書本上。
為了開發出更好的語言識別軟件,谷歌自然語言理解研究小組的研究人員訓練了他們的深層神經網絡,以預測一個作者在給定一些輸入的情況下會寫的下一個句子。研究小組使用了古騰堡計劃上的經典文獻,最初,他們給程序提供了句子,但沒有對應的作者ID,程序能夠以12.8%的錯誤率預測接下來的句子是什么。當將作者ID輸入系統時,錯誤率降至11.1%。
然后,球隊加大了賭注。使用寫作樣本和作者ID,研究人員讓該程序應用梅耶斯·布里格人格測試來確定作者的人格特征。最終,這種類型的機器學習可以使人工智能更好地理解語言和人類的本性。不過,就目前而言,正如團隊在他們的博客上解釋的那樣,該計劃“可以幫助推出的Gm人工智能l收件箱中的智能回復功能提供更個性化的回復選項。”
與此同時,在斯坦福大學,另一組研究人員正在使用現代書籍來幫助他們的人工智能系統程序奧古爾理解人類的日常活動。
正如研究小組在他們的論文中解釋的那樣,AI人工智能不能在沒有人工輸入的情況下預測日常需求(例如,什么時候煮一壺咖啡,或者什么時候因為我們在睡覺而關閉電話)。他們認為,這是因為對于任何一個人來說,手工編程都有太多的日常瑣碎任務和需求。相反,他們“通過分析超過10億字的現代書籍來證明挖掘人類行為的廣泛知識基礎是可能的。
在其他新聞中,也許可以將從虛構中學習人類行為的機器開發應用到谷歌無人駕駛汽車等系統中,谷歌無人駕駛汽車承認對一次事故負有部分責任。谷歌的汽車行駛了100多萬英里,發生了大約17起事故,然而,在其他情況下,這都是人類駕駛另一輛汽車的錯誤,或者是谷歌的一名員工駕駛谷歌汽車時發生的。
這起特殊事故的發生是因為谷歌汽車沒有正確地預見到后面一輛公交車的行動,汽車輕微轉向,以避開路上的障礙物,公共汽車的一側撞上了汽車。在當時,駕駛方向盤的谷歌測試司機認為巴士會屈服,而巴士司機可能認為谷歌汽車會向巴士屈服。
這起事故提出了一個值得思考的有趣問題:對于自主系統所犯的罕見錯誤,人類會有多大的容忍度?正如我們在過去提到過的,如果自動駕駛汽車將美國每年32000的交通死亡人數減少一半,汽車制造商將得不到16000張感謝信,但會收到16000起訴訟,我們還會繼續研究下去嗎?