繁體
  • 简体中文
  • 繁體中文

熱門資訊> 正文

人工智能在可追溯之前無法被信任

2025-08-28 00:08

一名聯邦法官最近因一項裁決而成為頭條新聞,該裁決稱在受版權保護的材料上訓練人工智能模型可能屬於「合理使用」範圍。「與此同時,法院明確表示,抓取盜版內容是另一回事。圍繞人工智能培訓的法律灰色地帶變得不那麼灰色了。

法院的裁決澄清了「合理使用」目前可能涵蓋人工智能培訓。但法律保護與道德合法性並不相同。人們想知道人工智能的智能來自哪里,並在智能來自他們時獲得讚譽。

這一刻應該敲響警鍾。不僅適用於面臨《紐約時報》和蓋蒂圖片社訴訟的科技巨頭,也適用於任何構建、使用或依賴人工智能系統的人。因為真正的問題不僅在於什麼是合法的,還在於什麼是可追溯的和負責任的。

幾年前,公眾還對人工智能睜大了眼睛。但愛德曼最新的信任晴雨表顯示,美國對人工智能公司的信心已降至35%,五年內下降了15個百分點。在英國,路透社研究所的一項調查發現,63%的人對人工智能生成的新聞感到不安。在全球範圍內,懷疑論正在上升,不是因為人們擔心機器會接管,而是因為他們不知道是什麼在為他們提供動力。

當您問ChatGPT一個問題時,它借鑑了誰的作品?當法律人工智能工具提出案例先例時,誰撰寫了原始意見?當Telegram聊天機器人推薦交易時,它訓練的數據是什麼?是否被操縱?

現在,沒有人知道,這就是問題所在。

新系統正在構建中,其作用就像人工智能的成分標籤。他們跟蹤每條訓練數據的來源、誰貢獻了它,以及它如何影響模型的輸出。這創建了一種「書面線索」,這樣當人工智能給你答案時,你就可以真正看到它基於什麼以及誰值得讚揚。其中一個系統稱為歸因證明(PoA)。

在可追溯的人工智能系統中,數據不會未經同意從互聯網上抓取,而是由保留所有權的創作者或社區自願貢獻。每條數據都標記了詳細信息,例如它來自哪里、何時添加以及如何使用。系統不會訓練一次模型並將其鎖定,而是不斷更新,跟蹤什麼進入和什麼退出。 當模型生成響應時,您可以回顧並確切瞭解哪些數據影響了它、如何做出決策以及每個來源的權重。

想象一下,Substack作者向社區策劃的數據集貢獻了一個段落。該數據集訓練了一個為法律助理聊天機器人提供動力的模型。當聊天機器人在迴應中引用該見解時,原作者就會被記錄、記入貸方,並且根據模型的結構,甚至可能會獲得小額支付或認可。

可追溯人工智能不再只是學術界或加密原生項目的實驗。它開始在實際部署中受到關注。在Web 3中,人工智能代理用於優化交易策略,在醫療保健領域,去中心化的研究合作者正在測試歸因感知人工智能,以跟蹤患者數據如何對診斷做出貢獻。在教育領域,人工智能導師開始引用學習來源,以便學生可以審查而不僅僅是接收答案。

靜態、不透明的模型正在慢慢讓位於可審計的模塊化智能,其中每個響應都有面包屑痕跡。

隨着人工智能越來越多地代表我們行事,無論是通過代理商談判合同、制定價格還是分配資源,數十億美元正在通過機器人和人工智能工具日益增強的系統流動。當這些模型錯誤、有偏見或被操縱時,整個生態系統就會面臨風險。

我們必須為優秀的演員提供證明其正直的工具。如果一個模型幫助研究人員找到突破,那麼這些見解背后的人就應該受到關注,最好是有價值的。

可追溯的人工智能使模型更公平、更負責任、更強大。下一波人工智能公司不會由模型運行的速度或儲存的數據量來定義。評判他們的標準將是他們的情報的透明度以及他們獎勵其力量的人的程度。

如果人工智能要重塑我們的未來,我們需要能夠追蹤這個未來從何而來。

Beninga免責聲明:本文來自無薪外部撰稿人。它不代表Benzinga的報告,也沒有對內容或準確性進行編輯。

風險及免責提示:以上內容僅代表作者的個人立場和觀點,不代表華盛的任何立場,華盛亦無法證實上述內容的真實性、準確性和原創性。投資者在做出任何投資決定前,應結合自身情況,考慮投資產品的風險。必要時,請諮詢專業投資顧問的意見。華盛不提供任何投資建議,對此亦不做任何承諾和保證。