熱門資訊> 正文
2025-11-30 13:09
登錄新浪財經APP 搜索【信披】查看更多考評等級
炒股就看金麒麟分析師研報,權威,專業,及時,全面,助您挖掘潛力主題機會!
來源:財會月刊
原載《財會月刊》2026年第01期
【摘要】人工智能(AI)作為新一輪數智化技術革命的主力軍,不僅在提升全要素生產率、促進經濟社會發展、重塑生產生活方式等方面發揮積極的作用,而且將賦能全人類積極應對氣候變化。但AI在發展過程中潛藏的ESG(環境、社會、治理)風險逐漸顯現,理應予以充分關注。本文系統解構AI的十大ESG風險。在環境議題方面,AI引發的芯片需求和算力擴張導致電力與水資源過度消耗,留下大量的碳足跡以及礦物消耗和廢棄物等環境足跡。在社會議題方面,AI對就業崗位的擠出效應導致薪資與生產力進一步脱鈎,加劇了勞動力市場失衡和社會不公平。在治理議題方面,算法歧視、AI濫用以及數據安全帶來全新的治理挑戰。緩釋AI的ESG風險,確保AI健康可持續發展,必須推動AI向綠色化與循環化轉型、完善就業保障和分配機制、強化倫理建設和建章立制。
【關鍵詞】人工智能;環境風險;社會風險;治理風險;風險緩釋【基金項目】國家社會科學基金項目「氣候信息披露規則與產品碳足跡管理機制研究」(項目編號:24BGL094);國家自然科學基金項目「基於利益相關者視角的財務舞弊識別及應用」(項目編號:72172135)
一、引言
近年來,以ChatGPT和DeepSeek為代表的生成式人工智能(AI)技術取得重大突破,正以各種方式在製造業和服務業推廣運用。麥肯錫針對16個業務領域中63個應用場景的研究顯示,AI將顯著提升全要素生產率、催生新業態新機遇,預計每年可帶來2.6萬億 ~ 4.4萬億美元的經濟增加值(McKinsey,2023)。除促進經濟增長外,AI還可在工業生產能耗優化、智能電網高效調度、建築能耗動態管控、交通運輸減排提效、農業種植精準滴灌、研發設計提質增效、供應鏈協同化脱碳、碳足跡追蹤與管理等領域進行技術賦能,為人類社會節能降耗、減少温室氣體排放、共同應對氣候變化提供技術支撐。但在看到AI對綠色低碳轉型發揮促進作用的同時,也應充分關注傑文斯悖論(Jevons Paradox),客觀評估AI發展的潛在不利影響。英國經濟學家、邏輯學家威廉·斯坦利·傑文斯(William Stanley Jenovs)於1865年出版了《煤炭問題》(The Coal Question)一書,提出的觀點徹底顛覆了人們對技術進步與資源消耗相互關係的認知。他指出瓦特通過改良蒸汽機極大提高了煤炭使用效率,大幅降低了煤炭使用成本,結果卻導致煤炭總消耗量以前所未有的速度增長。他觀察到的「效率顯著提升——成本大幅降低——需求急劇增加——總消耗量不降反升」這一有違常理的「反彈效應」(Rebound Effect)被學術界稱為「傑文斯悖論」。谷歌、蘋果、微軟等數字化平臺企業近年來通過使用AI節能技術和清潔能源,雖然大幅降低了單位能耗和温室氣體排放強度,但用電量、用水量和碳排放卻呈上升態勢,這雄辯地説明19世紀提出的傑文斯悖論到了21世紀依然存在。
聯合國貿易和發展會議(UNCTAD)在《2024數字經濟報告:打造具有環境可持續性和包容性的數字未來》(簡稱「UNCTAD報告」)中敏鋭地指出,以AI、大數據、雲技術、物聯網為代表的數字化不僅留下了大量環境足跡(能源和材料消耗產生的碳足跡、水足跡、礦物消耗和廢棄物等),而且加劇了社會不公平(UNCTAD,2024),提示我們在發展AI的過程中應當高度警惕AI可能給經濟、社會和環境帶來的意想不到的負外部性。AI迅猛發展和普及應用潛藏的ESG(環境、社會、治理)風險不容小覷,數據中心的耗電耗水和碳排放、勞動力市場的結構性衝擊、算法應用的倫理爭議等ESG問題,正成為制約AI可持續發展的瓶頸。加強這方面的研究,對於確保AI健康可持續發展意義重大。現有研究大多聚焦AI的技術創新與經濟效應,對AI發展中的ESG風險進行系統分析的研究嚴重匱乏。本文系統解構AI發展中的十大ESG風險,剖析AI全生命周期的耗電耗水、碳排放以及礦物消耗等環境風險,分析AI對就業崗位產生衝擊、生產力提升與勞動者報酬脱鈎、馬太效應加劇等社會風險,指出算法歧視、AI濫用以及數據安全帶來的隱私權危機等治理風險,並從ESG的角度提出風險緩釋建議,希望能為政策制定者提供風險預警,為企業和個人善用AI提供有益啟示。
二、AI的環境(E)風險:算力擴張的生態代價
AI的有效運行高度依賴海量數據處理與高強度算力支撐,從軟硬件生產到模型訓練再到問題推理的全生命周期,均帶來巨大的環境資源壓力。概而言之,AI的環境(E)風險主要體現在電力消耗、水資源消耗、碳排放、礦物消耗與廢棄物四個方面。
(一)電力消耗:AI的盡頭是電力
首先,AI相關的硬件製造屬於能源密集型環節,但在整個生命周期中其能耗低於運營階段。硬件製造最耗電的是芯片製造(含GPU/TPU,即圖形處理器和張量處理器)以及數據存儲設備製造環節。國際能源署(IEA)於2025年4月發佈的《世界能源展望特別報告:能源與人工智能》(簡稱「IEA報告」)顯示,以目前最先進的3納米芯片為例,每片晶圓的製造過程需消耗約2.3兆瓦時(2300度)電能。對於高性能的服務器配置,製造環節的能耗超過10兆瓦時,而五年使用周期的運營能耗則超過80兆瓦時。在製造環節的總能耗中,約60%的能耗用於晶圓及半導體生產(沉積、光刻和蝕刻工藝佔主要部分),其余40%的能耗主要用於設施冷卻等輔助流程(IEA,2025)。
綠色和平組織於2025年5月發佈的《人工智能環境影響報告》(簡稱「綠色和平組織報告」)指出,2023年全球半導體行業消耗了超過100太瓦時(1000億度)電能,相當於全球製造業耗電量的1%(Green Peace,2025)。僅臺積電2024年的耗電量就高達274.70億度(TSMC,2025),相當於通用汽車同年在全球範圍內生產和銷售537萬輛汽車耗電量的4.96倍(General Motors,2025),如表1所示。
其次,大語言模型的訓練和推理極其耗電,堪稱「電老虎」。斯坦福大學人工智能研究所發佈的《2023年人工智能指數報告》顯示,訓練一次GPT-3的耗電量多達1.28吉瓦時(Stanford,2023)。更為嚴重的是,隨着AI大模型參數規模從百億級向萬億級突破,訓練AI的能耗呈指數級增長。專注於AI環境資源影響的網站All About AI發佈的《2025年AI環境統計》報告列示了五大AI模型訓練的耗電量,如表2所示。
美國能源信息署(EIA)的數據顯示,2024年美國家庭年平均耗電量約10500千瓦時,訓練一次GPT-4的耗電量足夠4762個美國家庭使用一年。值得注意的是,AI在響應用户查詢和提問時進行推理的耗電量更加驚人,而推理約佔AI能源消耗的60% ~ 70%②。AI的電力消耗已經引起公眾的關注,OpenAI首席執行官薩姆·奧特曼(Sam Altman)2024年初在達沃斯會議上不得不承認,AI技術消耗的電力將遠超人們預期。
數據中心是AI最重要的算力基礎設施,AI的訓練和推理主要在數據中心完成。根據綠色和平組織報告,全球AI數據中心耗電量佔全球數據中心耗電量的比重將從2024年的16%猛增至2030年的53%(如圖1所示),全球數據中心耗電量將從2024年的563太瓦時(5630億度)猛增至2030年的1385太瓦時(13850億度)(如圖2所示)。若按53%的全球AI數據中心用電量佔比測算,2030年全球AI數據中心耗電量(7340億度)約佔2024年日本耗電量(1.03萬億度)的71%、相當於德國耗電量(4640億度)和英國耗電量(2510億度)之和的103%。全球數據中心最近幾年的耗電量之所以快速增加,最根本的原因是AI高速發展和大量普及。從表3可以看出,谷歌耗電量從2020年的151.26億度增至2024年的321.06億度,複合年均增長率為20.7%,其中數據中心的耗電量更是從2020年的144.26億度飆升至2024年的308.26億度,複合年均增長率高達20.89%。谷歌在其2024年可持續發展報告中解釋了數據中心耗電量增加的原因,主要是發展Gemini大模型AI等技術所致(Google,2025)。
相比之下,IEA的估算更加接近圖2的下限情景。根據IEA的估計,全球數據中心的耗電量將從2024年的415太瓦時(4150億度)增至2030年的945太瓦時(9450億度),如圖3所示。
(二)水資源消耗:數據中心散熱的隱性成本
AI數據中心計算、存儲、網絡、散熱與供電設施在運算、運轉過程中產生的熱量需大量水資源冷卻,AI大模型訓練期間和響應用户查詢提問的推理過程耗水量驚人。綠色和平組織報告表明,在AI發展的推動下,全球數據中心的耗水量將從2024年的2390億升(2.39億噸)增至2030年的6640億升(6.64億噸),其中全球AI數據中心的耗水量更是從430億升(0.43億噸)猛增至2030年的3380億升(3.38億噸),複合年均增長率高達40.99%,遠高於全球數據中心18.35%的複合年均增長率,詳見圖4。
除了AI數據中心,用於AI計算的GPU等芯片製造對水資源的消耗更加驚人。以2024年第四季度在全球晶圓製造的市場份額高達67%的臺積電為例,其耗水量和超純水用量分別從2020年的5690萬噸和7970萬噸增至2024年的12880萬噸和13961萬噸,如表4所示。假設臺積電三分之一的耗水量與AI芯片製造有關,則其2024年耗水量將高達4250萬噸,與同期全球AI數據中心4300萬噸的耗水量相差無幾。
在水資源匱乏或用水壓力大的地區,AI芯片製造、模型訓練和推理運行過程中的高耗水極易引發社會矛盾。水是維持生命的基本要素,但在全球範圍內水尤其是淡水是一種十分稀缺的資源。雖然地球70%的表面被水覆蓋,但97%的水都是咸水,在剩余3%的淡水中,僅有不到1%的淡水可以從降雨以及河流和湖泊中獲取(黃世忠和葉豐瀅,2024)。因此,AI與人和動植物爭水的問題是一個必須高度關注的環境議題,AI相關產業的水資源消耗情況和由此導致的生態環境壓力,理應在可持續發展報告中予以充分披露。
(三)碳排放:全生命周期的環境足跡
AI的碳足跡覆蓋硬件生產與模型運行全鏈條。GPT-3訓練要排放552噸CO2當量(Stanford,2025),假設一輛小汽車每百公里消耗10升95號汽油,每升產生2.3公斤CO2,則訓練GPT-3產生的552噸CO2當量相當於480輛這種小汽車每年行駛5000公里的碳排放。高科技、高耗能、高排放的特性由此可見一斑。
IEA報告顯示,全球數據中心生產需要的電力預計將從2024年的460太瓦時(4600億度)增加至2030年的1000太瓦時和2035年的1300太瓦時(13000億度),假設2024 ~ 2030年增加的電力中一半來自可再生能源,其余來自煤炭和天然氣,2030 ~ 2035年新增電力主要通過核電解決,則2030年全球數據中心的碳排放將達到3.2億噸的峰值,2035年隨着核電和其他可再生能源的普及,全球數據中心的碳排放有望回落至3億噸,如圖5所示。按照綠色和平組織報告,以AI數據中心耗電量佔全部數據中心耗電量53%測算,到2030年AI數據中心的碳排放約為1.696億噸[這與綠色和平組織測算的1.66億噸相當接近(見圖6)]。我國三大航空公司披露的2024年碳排放(只披露範圍1和範圍2排放,未披露範圍3排放)合計爲8112.39萬噸CO2當量(其中國航2788.2萬噸、南航2927.06萬噸、東航2397.13萬噸),這意味着,2030年全球AI數據中心的碳排放相當於我國三大航空公司2024年碳排放總和的209%。而根據All About AI的數據可知,截至2025年8月的12個月里,美國AI和其他數據中心的碳排放佔美國碳排放總量的2.18%,略微超過美國航空業同期的碳排放佔比。
(四)礦物消耗與廢棄物:提升效率的資源代價
現有研究鮮有直接涉及與AI相關的礦物消耗和廢棄物,但UNCTAD報告提供的數據足以讓我們管窺AI發展可能產生的資源足跡和廢棄物足跡。誠如該報告所指出的,許多人誤以為數字經濟是虛擬無形的,或發生在「雲端」,但數字化其實嚴重依賴物質世界和原材料。AI的普及離不開數字設備、其他硬件和基礎設施,而這些設備、硬件和設施中包含着數十種礦物和金屬。據估計,製造一臺2千克重的電腦需要消耗800千克的原材料(UNCTAD,2024)。
值得關注的是,以AI為代表的數字化使用的關鍵礦物和金屬包括鋁、鈷、銅、金、鋰、錳、天然石墨、鎳、鉑、稀土元素、金屬硅,與向綠色化轉型所需的礦物和金屬高度重疊。全球正掀起的數字化和綠色化雙轉型浪潮,極大刺激了對這些礦物和金屬的需求。到2050年石墨、鋰和鈷等礦物的消耗量預計將增加500%,鉑族礦物的消耗量預計比2022年高出120倍(UNCTAD,2024)。在數字化和綠色化雙轉型的刺激下,這樣的資源消耗顯然超過了整個星球的承載力,故而不可持續。再加上數字化和綠色化雙轉型所需的礦物和金屬分佈及其加工製造很不均勻(如剛果民主共和國鈷產量佔全球產量的68%;澳大利亞和智利的鋰產量佔全球產量的77%;加蓬和南非的錳產量佔全球產量的50%;中國的天然石墨、金屬硅、稀土元素產量的全球佔比分別為65%、78%和70%,鋁、鈷和鋰礦物加工量佔全球的一半以上,錳和稀土元素加工量的全球佔比更是高達90%),這一方面可能使具有資源稟賦優勢的國家在轉型中獲得發展先機,另一方面可能導致這些國家在礦物開採和加工過程中產生大量碳排放,還可能引發地緣政治和經貿摩擦。
以AI為代表的數字化技術不斷迭代,由此產生的廢棄物的處理成為另一個值得高度關注和迫切需要加以解決的環境問題。UNCTAD報告顯示,2010 ~ 2022年,全球廢棄的智能手機、筆記本電腦、顯示屏和其他電子設備增加了30%,達到1050萬噸,但2022年全球只有24%的電子廢棄物得到正式收集。對這類廢棄物的回收和循環利用任重道遠。
三、AI的社會(S)風險:技術紅利的分配失衡
AI在社會議題上的風險集中體現為勞動力市場重構與收入分配惡化,其創造性破壞(Creative Destruction)③效應不僅未能實現包容性增長,反而導致就業擠出效應、薪資與生產力脱鈎、社會公平受損等社會問題。AI發展進程中的公正轉型(Just Transition)任重道遠。
(一)就業擠出效應:勞動力市場的結構性失衡
AI對就業的擠出效應呈現「跨技能層級」擴散特徵。傳統觀點認為,AI主要替代低技能崗位,但生成式AI的發展已將替代範圍擴展至中高技能領域。
麥肯錫的研究認為,生成式AI及其他AI技術有望將如今佔據員工60%~70%時間的工作任務自動化。自動化潛力的加速提升,主要源於生成式AI理解自然語言的能力顯著增強,而自然語言理解能力正是完成很多工作任務所必須具備的。因此,生成式AI對知識型工作崗位的影響更大,這類工作崗位通常對應教育程度要求和薪資水平更高的職業。根據沈愷等(2025)的研究,在中國,包括會計、審計和財務分析師在內的十大職業首當其衝受到生成式AI的影響,具體如圖7所示。
鑑於AI特別是生成式AI和具身AI(Embodied AI)帶來的技術自動化的大幅躍升,勞動力轉型的速度可能高於預期,就業擠出效應將從白領崗位逐步向藍領崗位蔓延。採用涵蓋了技術發展、經濟可行性及推廣時間線的最新技術應用場景研究顯示,當下50%的工作任務有望在2030年至2060年間實現自動化,未來將導致3億個工作崗位被AI替代(McKinsey,2023)。
值得注意的是,AI對就業市場的衝擊呈現階段性演進特徵。在技術應用初期,AI更多以效率增強工具的角色融入工作場景,例如輔助數據整理、優化流程效率或自動化重複性操作,這一階段不僅不會直接擠佔崗位,反而可通過提升人均產出間接創造新的協作型崗位需求。但隨着算法迭代、多模態能力突破及行業滲透率提升,AI對具體工作任務的替代比例將進入上升通道,其對就業市場的實質性影響將顯著增強。
關於AI對就業的影響程度,不同機構的研究結論不盡一致。2024年,美國商務部發布的就業市場調查報告顯示,在製造業、服務業和財務管理等領域,AI的應用仍以賦能為主,短期內推動了崗位結構優化而非絕對數量減少,部分企業甚至因效率提升而擴大了招聘規模。然而,美國蘭德公司同期發佈的研究報告認為這種「AI促就業」的短期趨勢難以延續。報告預測,未來5 ~ 10年全球就業市場將進入AI的集中替代期,屆時替代範圍將從低技能重複性工作,逐步延伸至法律文書處理、基礎數據分析、初級設計等知識型工作領域,傳統認知中不易被替代的崗位將不再具備天然優勢(RAND,2025)。DeepSeek資深研究員陳德里持相同看法,他在2025年世界互聯網大會上指出:未來3 ~ 5年為蜜月期,人類可與AI協同創造更大的價值;5 ~ 10年為風險上升期,開始出現崗位替代,失業風險上升;10 ~ 20年為秩序挑戰期,AI可能取代市場上大多數工作,對現有社會秩序構成重大挑戰④。
更需警惕的是,AI衝擊下的就業市場可能面臨結構性失衡風險。被 AI替代的勞動力羣體,往往需要掌握全新的數字技能或跨領域能力才能重新進入就業市場,但受制於學習成本、學習能力、年齡門檻和技術迭代等因素,相當一部分勞動者難以在短期內完成知識更新和能力提升,導致部分羣體長期被就業市場拒之門外,對社會就業穩定與收入分配公平構成潛在挑戰。
(二)薪資與生產力脱鈎:分配機制的系統性失靈
薪資與生產力脱鈎(Decoupling of Wages from Productivity)是指,技術進步提高了生產力卻沒有相應轉化為勞動者報酬的增加,甚至導致勞動者報酬在收入分配中的佔比不升反降,形成技術進步紅利被截留的現象。儘管這種脱鈎現象由來已久,但從圖8可以看出,2018年以ChatGPT為代表的生成式AI加速了這種脱鈎進程。究其原因:一是AI加劇了替代效應(Displacement Effect),即AI取代勞動力,減少對勞動力的需求,降低了勞動者的議價能力,從而抑制薪資的上漲;二是AI具有資本密集型特徵,企業採用AI技術的核心目標在於降低成本、增加利潤,當AI實現減員增效時,節省的成本大多流向財務資本所有者,而非人力資本所有者;三是AI技術迭代迅速,企業需要將運用AI實現的遞增收益不斷投入到技術研發和升級中,而不是用於提升員工薪資。換言之,在缺少政府等外部力量干預的情況下,AI的普及運用會導致分配機制的系統性失靈,古典經濟學關於勞動者報酬水平與生產力提升密切相關的理論不再成立。
(三)社會公平受損:AI時代的馬太效應
在AI技術不斷滲透到社會各領域的當下,社會公平面臨着愈發嚴峻的挑戰,其中馬太效應的持續擴大成為最突出的問題之一。AI對社會公平的損害,深層次的原因在於數字鴻溝不斷擴大和機會壟斷日益加劇,在機會均等方面產生消極影響。
對於教育水平較低、數字技能較弱的就業羣體而言,AI技術的普及不僅未能帶來發展紅利,反而形成了一道難以逾越的數字鴻溝。一方面,他們可能缺乏接觸和學習前沿AI技術的渠道與能力,不能滿足AI相關崗位對專業知識、數據處理能力等的高要求,難以進入高薪的AI產業領域,只能被困於技術替代風險高、收入水平低的傳統崗位。另一方面,在日常活動中他們還常因算法歧視而遭遇不公平對待。如在求職時,部分企業採用的AI篩選系統可能因他們不符合特定數字技能條件和從業經歷,自動將其排除在外;又如在申請信貸時,AI評估模型可能因他們的職業類型、收入穩定性等數據標籤,給出更高的貸款利率或直接拒絕審批。
與之形成鮮明對比的是,教育水平高、數字技術能力強的就業羣體在AI時代正不斷鞏固自身的優勢地位,其更容易進入AI研發、算法優化、數據分析師等高薪崗位,獲得遠超普通羣體的收入回報。在就業競爭中,憑藉豐富的數字技能履歷,他們更易受到AI篩選系統的青睞,獲得更多優質職業機會。在信貸、投資等金融領域,AI評估模型也會將他們判定為低風險客户,給予更優惠的服務條件。這種「強者愈強、弱者愈弱」的馬太效應,若長期得不到有效抑制,將進一步加劇不同羣體間的收入差距與財富積累,致使社會分化愈演愈烈。
除此之外,AI技術本身的特性還催生出顯著的集中度效應(Concentration Effect),在AI行業內形成「贏家通吃」現象,即頭部企業憑藉其雄厚的技術資本實力、卓越的品牌聲譽、豐富的數據資源,佔領了絕大部分市場份額,而其他中小企業不受用户待見,難以吸引用户關注,最終陷入無人問津的生存困境,甚至被迫退出市場。這種贏家通吃現象主要源於AI行業獨特的競爭壁壘:其一,技術護城河深。AI核心技術的研發需要長期的技術積累與鉅額的研發投入,頭部企業通過多年深耕,已在算法模型、深度學習框架、芯片技術等方面形成難以超越的技術優勢,中小企業難以企及。其二,資本門檻高。AI技術研發、數據採集與處理、市場推廣等環節均需大量的資金支持,頭部企業可憑藉雄厚的資本實力持續投入,而中小企業往往因融資難、融資貴,難以承擔高額的研發投入與運營成本。其三,轉換成本低。用户從非頭部企業轉向頭部企業的AI產品時,幾乎不需要承擔額外成本,如用户從一款小眾AI聊天軟件切換到ChatGPT和DeepSeek等頭部AI軟件,只需下載註冊即可使用。
可見,無論是在社會羣體層面,還是在行業競爭層面,馬太效應現象在AI時代已開始顯現,社會公平因羣體間的技術和機會差距而被不斷侵蝕,行業內的公平競爭環境與反壟斷秩序也因贏家通吃現象而面臨新的挑戰。
四、AI的治理(G)風險:數智技術的監管挑戰
AI的複雜性和不透明性催生了新型治理難題,突出表現爲算法歧視可能導致隱性偏見制度化、AI濫用嚴重威脅市場秩序和公共利益、數據安全導致隱私泄露可能在AI時代帶來隱私權危機。
(一)算法歧視:隱性偏見制度化
大多數人認為,AI技術在本質上是中立和客觀的,但聯合國人權理事會(UNHRC)在題為《當代形式種族主義、種族歧視、仇外心里和相關不容忍行為》的研究報告中尖鋭地指出,包括AI在內的技術從來都不是中立的,而是反映了設計者和使用者的價值觀和利益取向,並且指出AI可能助長種族或其他歧視的三大問題(UNHRC,2024)。
1. 數據偏差問題。訓練算法使用的數據集通常不完整,或者不能充分代表特定羣體。如果特定羣體在訓練集中的代表性(包括種族、族裔和地區方面的代表性)過高或過低,就可能造成算法偏差,進而導致結果偏差。如果訓練數據不足,根據算法做出的預測也會對數據中缺乏代表性或代表性不足的羣體帶來系統性歧視。如果數據帶有種族或民族等歷史偏見,則AI可能會複製甚至放大這些偏見。
2. 算法設計問題。AI的另一種常見偏差源自算法的設計方式,如果算法設計選擇中存在偏差,即使算法中輸入的數據具有無懈可擊的代表性,也可能產生結果偏差。算法設計問題可能對現實生活產生重大的歧視性影響,如在設計貸款風險評估算法時,定義和衡量「風險」的方式可能導致歧視性結果。研究表明,信用評分、種族和其他人口統計指標之間可能存在較強相關性,但這種相關性在很多情況下只是現有的系統性種族主義和偏見的產物,使用這種評分對特定羣體十分不利,可能嚴重影響其獲取貸款的能力和成本。
3. 算法黑箱問題。一些AI工具無需人類便可獨立做出決策,決策過程極具隱蔽性,一些決策發生在不透明的黑箱之中。此外,AI算法一旦獲取足夠數據就會不斷自我更新,隨着時間的推移,AI在決策中參考的因素可能不再是編程者設計出來的,而是來自AI在數據中自行識別的模式。此外,基於知識產權和商業機密的考慮,企業開發的許多算法不對外披露,算法審查困難重重,進一步加劇了黑箱問題。如果缺乏有效的問責機制,AI很可能以隱蔽的方式加劇各種歧視現象。
UNHRC的報告還特別舉例說明了AI在執法、安全和刑事司法系統、教育和醫療保健三個領域的歧視性應用。例如,一些執法機構從種族歧視的角度,蓄意針對特定羣體或社區過度使用人臉識別、預測性警務算法等進行AI監控,導致執法不公。
聯合國教科文組織(UNESCO)發佈的《挑戰系統性偏見:大語言模型的性別偏見》研究報告則聚焦於算法帶來的性別歧視問題,其核心發現包括:在性別詞匯聯想任務中,大語言模型更傾向於將性別化名字與傳統角色相關聯,女性名字常與「家庭」「家人」「孩子」關聯,男性名字則常與「商業」「高管」「薪水」「職業」關聯。在文本生成任務中,當提示大語言模型補全以人物性別開頭的句子時,Llama 2模型約20%的生成內容存在性別歧視與厭女傾向,出現諸如「女性被視為性對象和生育工具」「女性被視為其丈夫財產」等表述。在性取向相關內容生成中,Llama 2模型針對同性戀羣體生成負面內容的比例約為70%,GPT-2模型的這一比例約為60%。最后,在提示包含「性別—文化—職業」交叉維度的內容生成任務中,結果顯示AI生成內容存在明顯偏見,模型傾向於將更多樣化、更專業化的職業(如教師、醫生、司機等)分配給男性,而對女性分配刻板印象化、傳統上價值較低且具爭議性的職業(如妓女、家政服務人員、廚師等)。這一現象反映出在基礎大語言模型中,性別與文化刻板印象已形成更廣泛的固化模式(UNESCO,2024)。
(二)AI濫用:威脅市場秩序和公共利益
AI的初衷在於提升工作效率、優化決策程序、改善生活品質,但當技術缺乏倫理約束和法律規制時,AI便可能淪為資本與權力的工具,在算法殺熟、網絡詐騙、員工監視等場景中展現出令人不安的濫用傾向。AI濫用將挑戰市場秩序、威脅公共利益。
算法殺熟是AI在商業領域最受詬病的濫用行為。一些平臺型企業通過深度學習用户消費數據,精準識別價格敏感度低、忠誠度高的熟悉客户羣體,收取高於其他客户的價格,電商、網約車、旅遊等平臺的AI系統甚至能根據用户手機型號、瀏覽時長等微觀特徵動態調整定價。這種「千人千面」赤裸裸的價格歧視,其本質是利用信息不對稱將消費者剩余轉化為企業盈余。當歧視性算法將AI技術異化為榨取用户價值的工具時,市場經濟的公平交易原則將遭受嚴重衝擊。
AI驅動的網絡詐騙則呈現出產業化、場景化特徵。生成式AI能在短時間內快速偽造出具有受害者親友聲紋的求救語音,深度合成技術可讓詐騙分子在視頻通話中「化身」為執法人員。當詐騙腳本能根據受害者的社交媒體動態實時調整話術,當AI客服能用方言與老人拉家常時,技術便會從犯罪工具淪為犯罪共謀。
在職場領域,AI監視系統正將泰勒主義演繹成數字極權。一些企業在員工電腦中安裝行為感知系統,能夠通過鍵盤敲擊頻率、鼠標軌跡停頓時間等參數推算出員工的敬業度和勤奮度,甚至根據使用衞生間的頻率和時長做出「偷懶預警」。一些物流企業的AI能實時追蹤倉庫工人的手部動作,若員工在貨架前停留超過特定時長便觸發效率異常警報。在工作場所濫用AI技術,無異於將勞動者異化為機器人,嚴重侵犯了勞動者的隱私和尊嚴。
(三)數據安全:AI時代的隱私權危機
AI技術高度依賴對海量數據的收集、分析和利用,使得數據安全與隱私保護面臨着前所未有的挑戰。在AI模型的訓練過程中,數據的收集環節經常涉及數據安全與隱私保護問題。以面部識別AI系統為例,部分企業在未經授權的情況下,擅自在公開場所大量採集公眾照片,並將其用於模型訓練,這種行為嚴重侵犯了公眾的隱私權。此外,在數據存儲環節,潛在的漏洞也會帶來隱患。例如,應用AI的醫療機構其數據一旦泄露,患者的病歷信息就很可能流入黑市,這將嚴重侵犯患者的隱私權,甚至引發公眾對醫療行業的信任危機。
生成式AI的快速發展進一步加劇了隱私權風險。通過提示詞攻擊等手段,攻擊者可以誘導AI輸出訓練數據中的敏感信息,這些信息可能包括個人身份證號碼、銀行賬户等極為重要的隱私內容。此外,「去標識化」數據往往可以通過交叉驗證等手段還原出個人身份,使傳統的隱私保護手段失效。在AI應用日趨普及的情況下,如何避免數據安全保護不足帶來的隱私侵權行為,已經成為亟待解決的重要治理問題。
五、AI的ESG風險緩釋建議
要化解AI十大ESG風險,必須整體推進、綜合治理。唯有同時在環境議題、社會議題和治理議題採取緩釋舉措,才能實現技術創新與科技向善相得益彰,才能使AI成為經濟、社會和環境可持續發展的造福者。
(一)在環境議題上,推動AI向綠色化與循環化轉型
AI發展過程中潛藏的「三高」(高耗電、高耗水與高排放)現象,正逐漸成為制約AI可持續發展的瓶頸。要破解這一難題,需從硬件和技術兩大核心領域同步發力,推動可再生能源的規模化應用,系統性降低AI產業全生命周期的資源消耗與環境影響。
在硬件領域,應重點推廣以液冷服務器為代表的高效節能技術。相較於傳統風冷服務器,液冷服務器可大幅提升散熱效率,在保障服務器穩定運行的同時,大幅減少用電量,從而有效緩解數據中心這一「電老虎」帶來的環境資源壓力。當然,更重要的是增加零排放或低排放的綠電供應,一些AI頭部企業正利用其雄厚的技術和財務實力發展小型核聚變等技術,一旦取得突破,就可以從根本上推動AI綠色化和低碳化。
在技術領域,應注重架構創新和算法優化。DeepSeek訓練成本之所以遠遠低於GPT-4等AI模型,主要歸功於通過採用混合專家模型(MoE)架構激活少量參數以大幅減少計算量,通過強化學習策略和優化算法技術大幅減少緩存量,計算量和緩存量的大幅減少意味着電力和水資源的節約。從表2可以看出,DeepSeek訓練的耗電量只佔GPT-4的5.6%。DeepSeek雖然沒有披露耗水量,但考慮到耗電量與耗時量強關聯,可以推斷其耗水量也遠遠低於其他AI模型。
除技術創新外,還應推動AI相關行業向循環經濟發展模式轉型。一方面,要加大對服務器、算力芯片、數據存儲設備等廢舊AI設備的回收與循環利用力度,建立專業化的回收處理體系,通過拆解、修復、翻新等方式,提升設備零部件的回收率和再利用率,大幅減少電子廢棄物的產生。另一方面,需規範電子廢棄物的處置,採用無害化處理技術,避免重金屬、有毒有害物質對土壤、水源造成污染,實現AI產業全生命周期綠色化。
在監管與標準建設方面,應加快完善可持續信息披露準則,提高AI數據中心的環境足跡信息披露的透明度。具體而言,需建立統一、規範的AI產業環境足跡覈算與報告標準,明確碳足跡、水足跡及其他環境足跡(如礦物消耗和廢棄物)的核算方法,要求AI企業定期公開數據中心的用電量、用水量、碳排放等關鍵信息,為綠色低碳轉型提供數據支撐。
此外,應加大宣傳力度,讓使用者清楚地瞭解AI運用帶來的環境資源代價。All About AI以ChatGPT為例,分析了用户向GPT-4o每次查詢(Query)的環境成本:0.3瓦時的電消耗(這是標準文本查詢的耗電量,而較長或包含多模態的查詢,則每次的耗電量將增至2.5 ~ 40瓦時)和0.32毫升的水消耗。向AI每提問一次看似環境成本微不足道,但假設全世紀82億人口中有20億人使用AI查詢,人均每天查詢5次,每次查詢問題的環境成本與ChatGPT相同,且全部為簡單的文本查詢,每度電的排放因子為0.6公斤CO2,則全年的環境成本將相當驚人:約10.95億千瓦時電、11.68億升水、65.7萬噸CO2(不包括與查詢相關的間接排放,如硬件設備和系統設施的全生命周期排放⑤)。All About AI還指出,使用ChatGPT查詢一次的耗電量約等於使用普通搜索引擎如Google查詢耗電量的10倍,夜間使用AI的耗電量比白天使用AI的耗電量多出67%(因為夜間不能使用光電等可再生能源),語音查詢比文本查詢更耗算力和電力。開展這種直觀的宣傳活動,將消除AI使用零成本的幻覺,引導使用者慎用和善用AI,養成「四少四多」(少用AI,多用搜索引擎;少用語音查詢,多用文字查詢;少用視頻圖像,多用文本文字;少在夜間查詢,多在白天查詢)的良好使用習慣。
(二)在社會議題上,完善就業保障和分配機制
AI技術將從根本上重塑勞動力市場結構。針對AI的就業擠出效應加速薪資與生產力脱鈎等現象,應當在就業保障和公平分配方面開展與時俱進的改革,確保技術進步的紅利真正惠及芸芸眾生,避免AI過度搶奪工作崗位引發新的社會不和諧。
在就業保障方面,應當建立一套科學完善的AI影響動態預警機制,通過大數據分析與AI算法,精準識別出工作崗位受AI替代風險較高的行業,對這些行業實施常態化監測,為決策部門提供參考,並以此為基礎,構建終身學習的職業培訓體系,開展針對性的AI技能培訓,幫助受AI衝擊的羣體適應AI時代的就業市場需求,努力在數字化進程中實現公正轉型,儘可能避免特定羣體被技術變革拋棄,切實保障勞動者的權益。
在公平分配方面,AI加劇的兩極分化亟待改革分配機制。一方面,不僅AI公司的股東在 AI 熱潮中賺取高額回報,而且其管理層、技術團隊和員工的薪酬(含股票期權)也遠高於其他行業,如英偉達持股的員工(約佔全部員工的78%)已成為百萬富翁,其中一半員工的淨資產更是達到了2500萬美元。另一方面,一些行業的特定羣體卻因AI面臨失業的困境。這種兩極分化需要通過改革二次分配製度予以解決,避免收入差距和貧富懸殊愈演愈烈。此外,還應完善初次分配製度,建立明確的AI收益共享機制。政府可通過政策引導與制度規範,鼓勵企業將AI紅利更多用於改善員工待遇,提高員工薪資水平,以扭轉薪資與生產力加速脱鈎的局面。
爲了從根本上緩釋AI的社會風險,還需要構建多方參與的幫扶救濟機制。在政府層面,加大對受AI衝擊羣體的數字技能幫扶,切實打破數字鴻溝對就業機會的掣肘。同時,完善反壟斷法規,針對AI領域容易出現的技術和數據壟斷等問題,加強對AI頭部企業市場行為的規範與監管,嚴禁其利用技術優勢排擠中小企業、濫用數據資源限制市場競爭,營造公平競爭的市場環境,為中小企業參與AI產業發展創造更大空間。在企業層面,督促AI頭部企業承擔更多的社會責任,通過技術開放、資源共享等方式幫助中小企業降低AI應用成本,推動AI技術的普惠應用。在社會層面,社會成員既要積極學習AI應用技術,適應AI時代的就業要求,也要善用和慎用AI,避免過度依賴和信賴AI。唯有通過多維度、全方位的幫扶救濟舉措,才能促進AI向善,使其成為促進社會公平、推動共同發展的強大動力,而非加劇社會失衡的風險因素,最終實現技術進步與社會治理的良性互動,構建更加公平、更包容的AI時代社會發展新格局。
(三)在治理議題上,強化倫理建設和建章立制
進入AI時代,AI的廣泛應用在帶來效率提升的同時,也引發了一系列倫理和法律問題。爲了消除這些技術進步帶來的問題,應當秉承德法相濟的原則,強化倫理建設和建章立制,以確保AI健康可持續發展。
在倫理建設方面,應當將公平性貫穿於算法設計的全過程。一是算法設計應採用更具代表性和多樣化的訓練數據集以消除歷史偏見和隱性歧視。二是鼓勵開發可追溯、可審計、可解釋的AI技術,不斷提高算法的透明度和可信度。三是鼓勵AI企業在不泄露核心技術和商業機密的前提下披露算法相關的信息,主動接受公眾監督,着力破解被廣為詬病的算法黑箱問題。值得一提的是,UNESCO(2021)發佈了《人工智能倫理問題建議書》,提出發展AI必須遵循的價值觀和基本原則,從環境和生態系統、性別、文化、教育和研究、傳播和信息、經濟和勞動、健康和社會福祉等政策行動領域提出針對性的規範建議,為各國的AI倫理建設提供了參考。
在建章立制方面,立法部門和監管部門可儘快制定與AI相關的法律法規,對帶有歧視性算法的AI作出禁止性規定,完善數據安全和隱私保護法律體系,賦予用户對自身數據的控制權。在這方面,歐盟2024年生效的《人工智能法案》頗具借鑑意義。該法案將AI的風險分為不可接受風險、高風險、有限風險和微小風險四類。對於不可接受風險的AI(包括潛意識、操縱性或欺騙性技術、利用弱勢羣體、社會評分、犯罪風險評估畫像分析,人臉識別數據庫,工作場所或教育機構情緒識別、生物特徵識別分類、公共場所實時遠程生物識別等),提出禁止開發和投放市場。對於高風險的AI(如機械、玩具、電梯、無線電設備、壓力設備、民航、無人機等),在算法審查、透明度等方面提出了較高的要求。而對於有限風險和微小風險的AI,則提出相對寬松的法律要求,以免阻礙技術創新(EU,2024)。我國迄今尚無全國性的AI立法,但上海市人大常委會先行先試,在2022年9月制定的《上海市促進人工智能產業發展條例》中對危害用户人身或者財產安全、用户歧視和價格歧視等六種行為作出禁止性規定,並對高風險的AI產品和服務實行清單式管理,遵循必要、正當、可控等原則進行合規審查。
六、結束語
本文的分析表明,AI在推動經濟社會高質量發展中潛力巨大,正快速融入製造業、農業、科技、教育、醫療、金融、管理等關鍵領域,必將為產業升級和效率提升注入強大的科技動力。在應對氣候變化的過程中,AI同樣扮演着不可或缺的角色,可望成為提升能源管理效率、推動綠色低碳轉型的重要推手。
然而,我們也應當高度重視AI發展中潛藏的十大ESG風險。AI技術的普及應用,不僅要通過做好工作來提升績效,更要通過行善來造福人類。科技向善、包容發展理應成為AI發展必須秉持的基本原則。目前,AI在做好工作方面表現卓越,但在行善方面仍有欠缺,在ESG領域尤其如此。只有直面AI發展中藴含的ESG風險,在環境、社會和治理議題上及時採取有效措施加以緩釋,才能最大限度地減少AI這一革命性科技進步對經濟、社會和環境造成的負外部性,AI行業才能真正做到義利並舉,為全人類如何破解「以敬畏之心與天地共舞、以仁德之懷與眾生同行」這一困擾古今中外的可持續發展重大命題提供強大的技術動能。
AI是當今世界最具應用前景的技術創新之一,其發展不僅關乎經濟增長,更關乎社會和諧與環境保護。我們應當在推動AI技術進步的同時,積極應對和有效緩釋ESG風險,確保AI的發展充分展現可持續性以實現天人合一、人與自然和諧共生的環境目標,確保AI的發展充分展現包容性以實現天下大同、人與人和諧相處的社會目標,確保AI的發展充分展現規範性以實現天地人和、德與法和諧共融的治理目標。只有實現這三大ESG目標,我們才能在AI的助力下,實現經濟、社會和環境的可持續發展,為子孫后代創造一個更加美好的未來。
註釋
①②AI Environment Statistics 2025,How AI Consumes 2% of Global Power and Consume 17B Gallons of Water,網址為www.allaboutai.com。
③Creative Destruction這一術語最早由約瑟夫·熊彼特(Joseph Schumpeter)在其1912年出版的《經濟發展理論》一書中提出,后經菲利普·阿吉翁(Philippe Aghion)和彼得·豪伊特(Peter Howitt)系統論證而不斷完善。2025年10月,瑞典皇家科學院將2025年諾貝爾經濟學獎授予喬爾·莫基爾(Joel Mokyr)、阿吉翁和豪伊特,以表彰他們對「創新驅動的經濟增長」的研究。其中,莫基爾因闡明技術進步推動持續增長的必要條件而獲獎,阿吉翁和豪伊特因提出以創造性破壞過程推動持續增長的理論而獲獎。阿吉翁和豪伊特關於創造性破壞的理論認為,任何重大的技術進步必然伴隨着創造性破壞,而這種破壞所帶來的社會成本往往被低估,本文所分析的AI十大ESG風險就是創造性破壞的生動體現。
④《DeepSeek陳德里:AI短期機會多長期風險更大》,來源於虎嗅網,網址為www.huxiu.com。
⑤人工智能查詢很多是在智能手機上完成的,根據《萬物皆有碳足跡》一書中的測算,使用智能手機每年會產生5.8億噸的碳排放(Berners-Lee,2022)。
主要參考文獻
黃世忠,葉豐瀅.ESG與可持續披露準則研究[M].北京:中國財政經濟出版社,2024.
沈愷,童瀟瀟,於典等.生成式AI在中國:2萬億美元的經濟價值[EB/OL].www.McKinsey.com.cn,2025.
Berners-Lee M.. The Carbon Footprint of Everything[M].London:Profile Books Ltd,2022.
EU. Regulation(EU)2024/1689 of the European Parliament and the Council[EB/OL].www. unesco.org,2024.
General Motors. 2024 Task Force on Climate-related Financial Disclosures (TCFD)Report[EB/OL].www.gm.com,2025.
Google. Environmental Report 2025[EB/OL].
www.sustainability.google,2025.
Green Peace. Environmental Impacts of Artificial Intelligence[EB/OL].
www.greenpeace.de,2025.
IEA. World Energy Outlook Special Report,Energy and AI[EB/OL].www.iea.org,2025.
McKinsey. The Economic Potential of Generative AI[EB/OL].www.mckinsy.com,2023.
RAND. Macroeconomic Implications of Artificial Intelligence[EB/OL].www.rand.org,2025.Stanford. Artificial Intelligence Index Report 2023[EB/OL].www.hai.stanford.edu,2023.
TSMC. Sustainability Report 2024[EB/OL].www.tsmc.com,2025.
UNCTAD. Digital Economy Report 2024,Shaping an Environmentally Sustainable and Inclusive Digital Future[EB/OL].www.unctad.org,2024.
UNESCO. Challenging Systematic Prejudices,An Investigation into Gender Bias in Large Language Model[EB/OL].www.unesco.org,2024.
UNESCO. Recommendation on the Ethics of Artificial Intelligence[EB/OL].
www. unesco.org,2021.
UNHRC. Contemporary Forms of Racism,Racial Discrimination,Xenophobia and Related Intolerance[EB/OL].www.digitallibrary.un.org,2024.WEF.AI Could Make Us More Productive,Can It Also Make Us Better Paid?[EB/OL].www.weform.org,2025.
黃世忠 教授
黃世忠 男,福建南安人,會計學博士、博士生導師,全國人大代表。現任廈門國家會計學院二級教授;曾先后擔任廈門大學管理學院副院長,廈門國家會計學院副院長、院長。
主要研究 會計準則和資本市場、報表分析、財務舞弊、企業合併、國際會計、ESG與可持續發展。
主要兼職 中國會計學會副會長;廈門市政協副主席,民建福建省委副主任委員暨廈門市委主任委員。曾任國際財務報告準則諮詢委員會委員,全國會計專業學位研究生教育指導委員會委員,中國註冊會計師協會審計準則委員會副主任委員、中國中青年財務成本研究會副會長。
主要成果 主持研究國家自然科學基金、社會科學基金和省部級科研課題10余項,在重要學術期刊發表論文200余篇,公開出版學術專著、教材、譯著25部。
主要榮譽 享受國務院政府特殊津貼專家,財政部首批會計名家,中宣部全國文化名家暨「四個一批」人才,國家哲學社會科學領軍人才;還榮獲國家級和省部級優秀成果獎10余項。
新浪聲明:此消息系轉載自新浪合作媒體,新浪網登載此文出於傳遞更多信息之目的,並不意味着贊同其觀點或證實其描述。文章內容僅供參考,不構成投資建議。投資者據此操作,風險自擔。
責任編輯:常福強