根據(jù) Decrypt 報導(dǎo),牛津大學(xué)、柏克萊大學(xué)和波昂大學(xué)的研究人員對 2700 多名人工智慧專家進(jìn)行的一項新調(diào)查顯示,先進(jìn)人工智慧系統(tǒng)對人類的潛在影響並不那麼可怕。 雖然只有約 5% 的受訪者認(rèn)為人工智慧很可能導(dǎo)致人類滅絕,但 2023 年 8 月的一項民調(diào)發(fā)現(xiàn),61% 的美國人認(rèn)為人工智慧對人類構(gòu)成威脅。 這與簽署人工智慧安全中心信函的行業(yè)領(lǐng)導(dǎo)者形成鮮明對比,信件指出減輕人工智慧滅絕的風(fēng)險應(yīng)該是全球優(yōu)先事項。
在人工智慧能力方面,許多受訪者預(yù)測人工智慧將在 10 年內(nèi)實現(xiàn)重大的創(chuàng)意里程碑,例如從頭開始編寫整個支付網(wǎng)站或創(chuàng)作與當(dāng)今熱門歌曲毫無區(qū)別的歌曲。 然而,對於諸如數(shù)學(xué)定理證明之類的挑戰(zhàn),時間線會延長。 高階機器智慧 (HLMI) 成為現(xiàn)實的可能性已經(jīng)提前了 13 年,預(yù)計到 2047 年成功的可能性為 50%。勞動完全自動化 (FAOL) 的目標(biāo)也提前了 48 年,到了 2116 年。
雖然研究人員總體上持謹(jǐn)慎樂觀的態(tài)度,但約 40% 的人認(rèn)為先進(jìn)人工智慧導(dǎo)致人類滅絕的可能性很小(不是零)。 這凸顯了優(yōu)先考慮人工智慧安全研究的必要性,70% 的受訪者對此表示贊同。 對於 2028 年的人工智慧是否可以解釋自己的推理,人們存在不同的看法,並且對人工智慧帶來的錯誤訊息、不平等和大規(guī)模監(jiān)控等風(fēng)險存在著很大的擔(dān)憂。 研究人工智慧倫理和安全仍然至關(guān)重要。