根據(jù) Live Science 4 日的報道,一項新的研究發(fā)現(xiàn),與 AI 模型進行兩小時對話,就能準確復制一個人的個性。
這項研究來自谷歌和斯坦福大學,他們通過與 1052 名參與者進行兩小時訪談,創(chuàng)建了“模擬代理”——AI 的個性化復制品。這些訪談被用來訓練一個生成型 AI 模型,模仿人類的行為。
為了驗證 AI 復制品的準確性,每位參與者都完成了兩輪人格測試、社交調(diào)查和邏輯游戲,并在兩周后再次進行相同的測試。當 AI“復制品”進行了這些測試時,它們的回答與真實參與者相符的準確率高達 85%。
研究人員認為,能夠模擬人類行為的 AI 模型可能在多個研究領域發(fā)揮作用。例如,它可以幫助評估公共衛(wèi)生政策的效果、了解公眾對產(chǎn)品發(fā)布的反應,甚至模擬對重大社會事件的反應,這些問題由于成本高昂、操作復雜或倫理問題而難以通過真人參與研究。
研究人員在論文中提到:“模擬人類的態(tài)度和行為可以為研究人員提供一個實驗平臺,用于測試各種干預措施和理論。每個模擬個體都能參與到不同的社會、政治或信息環(huán)境中。”他們補充道,這種模擬還可以幫助試行新政策,探索因果關系和背景因素的互動,并加深我們對制度與網(wǎng)絡如何影響人們的理解。
研究人員也意識到,這項技術可能被濫用。AI 和“深度偽造”技術已被不法分子用于欺詐、冒充和操控他人。模擬代理人也可能被誤用。
然而,他們認為,這項技術為我們提供了以前無法實現(xiàn)的方式來研究人類行為,能在高度可控的測試環(huán)境中進行實驗,避免了傳統(tǒng)人類實驗中的倫理、后勤和人際問題。