繁體
  • 简体中文
  • 繁體中文

熱門資訊> 正文

Anthropic宣傳挫敗黑客濫用Claude AI實施網絡犯罪的企圖

2025-08-27 18:28

  北京時間8月27日,美國AI創企Anthropic表示,已發現並阻止黑客試圖濫用其Claude AI系統編寫釣魚郵件、創建惡意代碼及繞過安全過濾機制的行為。

  該公司在一份報告中公佈的調查結果顯示,人們對人工智能工具日益被用於網絡犯罪的擔憂不斷加劇——隨着這項技術的普及,要求科技公司和監管機構加強防護措施的呼聲也愈發強烈。

  Anthropic 在報告中稱,其內部系統已阻止上述攻擊,並正分享相關案例研究(展示攻擊者試圖利用 Claude 生成有害內容的具體方式),以幫助其他機構瞭解此類風險。

  報告提及,攻擊者曾試圖通過 Claude 定製釣魚郵件、編寫或修復惡意代碼片段,並通過反覆提示的方式繞過安全防護機制。

  報告還描述了攻擊者試圖通過大規模生成具有説服力的帖子、為低技能黑客提供分步操作指南等方式,策劃影響力操控活動的行為。

  這家得到亞馬遜谷歌母公司Alphabet投資的公司,未公佈IP地址或提示語句等技術指標,但表示已封禁涉事賬户,並在發現相關活動后收緊了過濾機制。

  專家表示,犯罪分子正越來越多地藉助人工智能提升詐騙的可信度,並加快黑客攻擊的實施速度。這些工具不僅能幫助編寫逼真的釣魚信息、實現惡意軟件開發流程的部分自動化,甚至可能為攻擊計劃的制定提供協助。

  安全研究人員警告,若企業和政府不迅速採取行動,隨着人工智能模型的能力不斷增強,其被濫用的風險也將持續上升。

  Anthropic 稱,公司遵循嚴格的安全操作規範,包括定期測試和外部審查,並計劃在發現重大威脅時持續發佈報告。

  OpenAI以及谷歌均面臨類似審視——外界擔憂它們的人工智能模型可能被用於黑客攻擊或詐騙活動,進而引發加強防護措施的呼籲。

  各國政府也在推進對該技術的監管:歐盟正推進《人工智能法案》(Artificial Intelligence Act)的實施,美國則推動主要開發者做出自願性的安全承諾。

風險及免責提示:以上內容僅代表作者的個人立場和觀點,不代表華盛的任何立場,華盛亦無法證實上述內容的真實性、準確性和原創性。投資者在做出任何投資決定前,應結合自身情況,考慮投資產品的風險。必要時,請諮詢專業投資顧問的意見。華盛不提供任何投資建議,對此亦不做任何承諾和保證。