第22章 做机器做不了的事,才配做人(2/2)
扎克听着听着,渐渐安静了下来。他反而并不愤怒了,取而代之的是深深的忧虑。
深度学习型人工智能,是靠大数据的喂养来建模和预测社会演变、人类选择的。
但是,这种人工智能有个最大的弊端,那就是它并不懂逻辑,所以没有对黑天鹅冲击的预见能力。它只是基于人类已有经验的总和,或者说人类历史上所有发生过的事情,来推测未来。
打个比方,早在2010年,谷歌公司的社会预测型人工智能,就发出过一个推演:
说不吃早餐的人,性-yín_luàn的概率会远远高于吃早餐的人的4.3倍。
这个数据准不准?
准,飞常准。
在全世界当时可被精确统计的样本里,不吃早餐的人拥有多个混乱性伴侣的比例,确实是吃早餐的人的4.3倍。
可问题是,人工智能知道这背后的逻辑原理么?看得懂因果关系么?
不,它看不懂。
大数据只看事实结论,它不关心逻辑。
如果非要它给个逻辑,或许它会敷衍塞责地写一句:“因为不吃早餐,所以喜欢找更多异性啪啪啪”或者“因为我找了更多异性啪啪啪,所以我不想吃早餐”。
人类一眼就能看出这纯属扯淡。
而同样的数据,如果交给人类的社会学家分析,人类会怎么干?
人类会深入调研、询问当事人的感想,最后得出这样的结论:“不吃早餐和性yín_luàn毫无关系。但只是因为不吃早餐的人,是生活无规律的一种重要表现形式。
而生活无规律的人,显然在挑选自己性伴侣方面也会更加随意而无责任心。所以,是生活无规律这种三观,同时导致了这个人有较大概率分别选择不吃早餐和随便挑选性伴侣。但不吃早餐和性yín_luàn本身之间毫无因果关系——它们都是生活无规律这个‘因’导致的‘果’。”
拉尔森部长的这番检讨,算是打在了问题的根子上了。
一个太信赖人工智能的社会系统,面临了因果不分、只看数据的窘境。
这时候,一个全新的、没有历史记录可供借鉴的事物发生了,又该如何去预估其扰动呢?
“我们太信赖这些年来科技对稳定的加持了。以至于一个新扰动变量就把我们的繁荣彻底打回了原形。我们的敌人,估计也是智商高绝的存在,竟然对我们的软肋了解如此之深。”
蒙扎克总统悲哀地叹了口气,发现自己竟然短时间内没有办法解决。
敌人似乎完全知道该怎么跟一个人工智能帝国作战,如何专挑人类能胜任、而人工智能又相对薄弱的最后死角,狠狠地打击。
:。:
本章阅读结束,请阅读下一章