ICC訊 最新研究稱(chēng),越來(lái)越多的人難以在圖靈測試中區分 GPT-4 和人類(lèi)。
據了解,“圖靈測試”由計算機科學(xué)家艾倫 圖靈在 1950 年提出,又被稱(chēng)為“模仿游戲”。測試的標準是機器能否像人類(lèi)一樣進(jìn)行對話(huà),讓對方誤以為其是真人。
加州大學(xué)圣地亞哥分校的研究人員招募了 500 名參與者,讓他們與四位“對話(huà)者”進(jìn)行五分鐘的交流,這四位“對話(huà)者”分別是真人、上世紀 60 年代的初代聊天機器人 ELIZA、以及驅動(dòng)聊天機器人 ChatGPT 的 GPT-3.5 和 GPT-4。參與者在對話(huà)結束后需判斷對方是人還是機器。
這項測試的結果發(fā)表于預印網(wǎng)站 arXiv上,結果顯示,有 54% 的參與者將 GPT-4 誤認為真人。相比之下,預先設定好回復的 ELIZA 只有 22% 的人將其認作真人,GPT-3.5 則為 50%,而人類(lèi)對話(huà)者被正確辨認的比例則為 67%。
研究人員指出,圖靈測試過(guò)于簡(jiǎn)單,對話(huà)的風(fēng)格和情感因素在測試中扮演著(zhù)比傳統智能認知更重要的角色。
電氣和電子工程師協(xié)會(huì ) (IEEE) 的人工智能研究員內爾 沃森 (Nell Watson) 表示,單純的智力并不能代表一切,真正重要的是足夠智能地理解情境、他人的技能并具備同理心將這些要素結合起來(lái)。能力僅僅是 AI 價(jià)值的一部分,理解人類(lèi)的價(jià)值觀(guān)、偏好和界限也同樣重要,正是這些品質(zhì)才能讓 AI 成為我們生活中忠誠可靠的管家。
沃森還提到,這項研究對未來(lái)的人機交互提出了挑戰,人們將會(huì )對互動(dòng)對象的真實(shí)性愈發(fā)疑慮,尤其是在涉及敏感話(huà)題時(shí)。同時(shí),這項研究也凸顯了 GPT 時(shí)代人工智能的巨大進(jìn)步。