IT之家 10 月 10 日消息,據(jù)美國 CNBC 9 日報(bào)道,谷歌前 CEO 埃里克?施密特發(fā)出嚴(yán)肅警告:AI 存在不可忽視的危險(xiǎn),而且極易被黑客利用。
他表示:“AI 可能出現(xiàn)擴(kuò)散問題嗎?絕對可能?!边@種風(fēng)險(xiǎn)包括技術(shù)落入不法分子手中,進(jìn)而被濫用或改作他用。
“有證據(jù)顯示,無論是封閉還是開源的模型,都可能被黑客攻擊并移除安全防護(hù)。在訓(xùn)練過程中,AI 學(xué)到很多技能,其中最糟糕的情況是,它可能學(xué)會如何殺人?!?/p>
施密特補(bǔ)充道:“所有主要公司都確保這些模型無法回答此類問題。做法正確,每家公司都是出于正確理由執(zhí)行這一措施。盡管如此,這些模型仍有被逆向工程的可能,還有很多類似風(fēng)險(xiǎn)存在?!?/p>
AI 系統(tǒng)容易受到攻擊,常見手段包括提示注入和越獄。據(jù)IT之家了解,所謂“提示注入攻擊”即黑客在用戶輸入或網(wǎng)頁、文檔等外部數(shù)據(jù)中隱藏惡意指令,以欺騙 AI 執(zhí)行不該執(zhí)行的操作,例如泄露私人數(shù)據(jù)或運(yùn)行有害命令。越獄則是操控 AI 的回答,使其繞過安全規(guī)則生成受限制或危險(xiǎn)內(nèi)容。
施密特表示,目前尚無完善的“非擴(kuò)散機(jī)制”來控制 AI 帶來的風(fēng)險(xiǎn)。盡管警告嚴(yán)峻,施密特對 AI 總體保持樂觀,他認(rèn)為這項(xiàng)技術(shù)的價(jià)值遠(yuǎn)未被充分認(rèn)識。“在亨利?基辛格去世前,我與他合著了兩本書,我們認(rèn)為,一種并非完全屬于我們、但在一定程度受控的外來智能出現(xiàn),對人類意義重大,因?yàn)槿祟惲?xí)慣處于食物鏈頂端。到目前為止,這一觀點(diǎn)正在驗(yàn)證 —— 這些系統(tǒng)的能力將遠(yuǎn)超人類隨時(shí)間的成長?!?/p>
他補(bǔ)充道:“GPT 系列最終帶來了 ChatGPT 熱潮,兩個(gè)月吸引一億用戶,異常驚人。這顯示了 AI 的力量。我認(rèn)為 AI 被低估,而非被高估,我期待在五到十年內(nèi)證明自己是對的?!?/p>