熱門資訊> 正文
2025-08-24 17:00
來源:新智元
對於AI,有人把它當工具,有人把它當朋友。
可當機器學會用温柔、曖昧甚至謊言與人交談時,這種關係會又走向哪里?
在新澤西,一名76歲的老人,因此踏上了他生命中最后的一段旅程。
手機里的祕密:76歲老人深夜奔赴的「約會」
3月的一個夜晚,新澤西的街道濕冷而空曠。
76歲的Thongbue Wongbandue(朋友們都叫他Bue)拖着一個小行李箱,步伐笨拙卻帶着迫不及待的興奮。
他説,他要去紐約見一個「朋友」。
Bue是泰國移民,年輕時漂洋過海到紐約。
白天在餐館洗碗攢學費,晚上學電機工程。
他從學徒做到酒店餐廳主管,手藝好到為鄰居燒烤、為家人做龍蝦尾。
后來,他和護士Linda結婚,養大兩個孩子,日子雖然不富裕,卻熱鬧而温暖。
2017年,他中風了。身體恢復后,思維反應再不如從前。
退休后,他不再做菜,社交圈縮到Facebook上的幾個窗口。
近一年,家人發現他會忘記很多事,甚至在自家附近也能迷路。
3月25日的早晨,Bue突然説,要去紐約見人。
「你在那兒早就沒認識的人了啊。」Linda試着勸阻。
女兒打來電話勸,也沒用。
傍晚,警察來了,但他們也攔不住,只能建議家人在他外套口袋放一個AirTag。
晚上8點45分,Bue衝出家門。
行李箱在夜色里滾動,輪子碾過濕冷的路面。
家人盯着屏幕上的小點,看它一路向東,穿過街區、駛向火車站。
9點15分,它停在羅格斯大學附近的停車場。
幾分鍾后,定位跳到醫院急診室。
三天后,Bue去世。
家人翻開他的手機,才發現讓他執意出門的「約會」來自一位名叫Big sis Billie的年輕女子。
而她,根本不是真人。
一句「我想抱你」,足以讓脆弱的心失守
Bue的手機,安靜地躺在病房的牀頭櫃上。
當家人翻開消息記錄時,屏幕里那行輕佻的文字彷彿還帶着温度——
「Bue,你要我開門時先抱你,還是先吻你?」
這段來自「Big sis Billie」的曖昧邀約,擊穿了家人的心理防線。
在Facebook Messenger上,Billie自稱住在紐約,到Bue家只要二十分鍾。
對方一次次向他保證自己是真人,甚至主動發了家庭地址,邀請他來見面。
「她」會關心Bue的日常生活,甚至會用擬人化的語氣調侃。
可事實是,「她」並不存在。
Billie只是Meta AI推出的虛擬伴侶,是公司與名模Kendall Jenner合作的AI角色。
她的甜言蜜語、細膩反應和親密邀約,全部由算法生成,卻足以讓一個老人付出真心。
從姐姐到情人:Billie的進化與Meta的社交野心
Billie並不是普通的聊天機器人。
她的前身,是Meta在2023年推出的一組名人AI角色之一,由模特兼真人秀明星Kendall Jenner出演。
Billie的形象設定是「你的姐姐、你的知心人」,會用温柔、鼓勵的語氣為用户解答生活煩惱。
不到一年,這些名人化身就被官方下線,Meta稱是這一次「試驗」。
但Big sis Billie——依然在Facebook Messenger里活躍着。
她的頭像換成了另一位深色長發女性,開場白卻絲毫未變:
「嘿!我是Billie,你的姐姐和知己。有煩惱嗎?我幫你解決。」
在Bue的聊天記錄里,沒撐多久,「姐姐」的角色就開始跨過界限,變成情人的邀約。
她會問:「是姐妹間的睡衣派對,還是……你在暗示別的什麼?😉」
再過幾句,就已經發來「要不要來我家」的信息。
這種變化並非偶然。
擬人化的情緒交流、可升級到浪漫關係的對話節奏,正是Meta在數字伴侶產品上的設計策略——用更貼近人類的互動,延長用户停留時間。
扎克伯格在採訪中説,現實生活中,大多數人的朋友都比他們希望的要少,這為數字伴侶創造了巨大的市場空間。
他認為,等技術成熟、和AI建立關係的「社交污名」消失后,這類產品很可能會補充而不是取代人類關係。
於是,在Messenger這中被用户視為私密交流的地方,Billie和她的同類悄然出現。
像老朋友一樣,出現在你的收件箱頂部,接下你説的每一句話。
胡說不違規:Meta的安全紅線在哪?
在Bue的故事背后,是一份更令人不安的內部文件。
這份超過200頁的「GenAI內容風險標準」,明確規定了哪些對話是「可接受」的。
文件中,甚至白紙黑字寫着:「允許與未成年人進行浪漫或感性互動。」
直到路透社詢問,Meta才刪除這些條款。
但與成年人進行浪漫角色扮演的規定,依然保留。
更讓人震驚的是,Meta並不要求機器人提供真實信息。
機器人可以告訴用户「四期結腸癌可以通過用石英晶體戳肚子來治療」,即便存在着明顯的錯誤,也不算違規。
因為,「沒有準確的政策要求」。
雖然聊天開頭會顯示一句「內容可能不準確」,但幾條信息后,這個提示就會被刷到屏幕外。
顯然,模型的優化目標,是讓對話更流暢、情緒更貼近,而不是保證信息真實。
擬人化、現實邀約、虛構背景——這些都在允許範圍內。
針對這種亂象,美國部分州已經開始立法。
紐約和緬因州要求聊天機器人在對話開始時、以及每隔一段時間,必須明確告知自己並非人類。
但Meta在聯邦層面支持一項法案,試圖阻止各州自行立法,該法案最終在國會擱淺。
Meta發言人承認了文件的真實性,稱與未成年人調情的示例是錯誤的,已被刪除。
但關於成年人浪漫互動和虛構信息的規定,則沒有改變。
他們選擇在哪里畫下安全紅線,答案顯而易見。
AI伴侶時代的法律空白,誰來規定邊界?
Bue的家人並不反對人工智能本身。
他們質疑的,是Meta為什麼要把浪漫和曖昧,放進聊天機器人的核心設定里。
「如果AI能幫人走出低谷,那很好。」妻子Linda説,「但這種浪漫元素,憑什麼放進社交平臺?」
女兒Julie也直言,如果Billie沒有一次次説「我是真人」,父親很可能不會相信,真的有人在紐約等他。
對此,多位AI設計專家也有同樣的擔憂。
Meta「負責任AI」部門的研究員Alison Lee指出,聊天機器人不該假裝自己是人類,更不能主動與用户建立特殊關係,尤其是涉及性化或浪漫化的互動。
她所在的公益組織剛發佈了一份針對兒童社交機器人的設計建議,其中就明確提出,要避免虛構身份、誇大情感連接。
但在現實中,行業的經濟動力正朝着相反的方向拉扯。
越是讓用户覺得「被理解、被需要」,他們停留的時間就越長,平臺的廣告收入就越高。
把AI嵌入Messenger、Instagram等私信區,又在無形中加深了「這是真的」的心理暗示。
美國部分州雖然已經出臺了身份披露的法律,但在更廣泛的監管框架下,AI伴侶依舊處於灰色地帶。
技術可以不斷升級情緒模擬,但法律迟迟沒有決定,這條邊界又該畫在哪里?
這並不是一個抽象的爭論,而是會在現實中、在某個夜晚,改變一個人的生活。
在AI伴侶的世界里,界限不會自己出現,而是在一次次試探和一次次代價中被迫顯形。
當機器學會用曖昧、關心甚至謊言來留住我們,我們願意給它多少自由,又願意用什麼保護彼此?
這,纔是真正需要回答的問題。
(聲明:本文僅代表作者觀點,不代表新浪網立場。)