熱門資訊> 正文
2024-10-08 09:56
還記得當年英特爾的廣告語嗎?「Intel Inside」,這個標誌性的標籤幾乎成了計算設備的象徵。然而,隨着AI大模型的迅速崛起,計算的核心從CPU悄然轉向了GPU。一場前所未有的技術革命正在醖釀,而這場革命的主角正是GPU。這並非簡單的硬件升級,而是對整個雲計算生態的重新定義。
這一變革並非是循序漸進的升級,而是一場顛覆式的革命。GPU不僅僅是性能更強,它的出現實際上重新定義了雲計算的底層邏輯。傳統的雲計算巨頭——無論是AWS、微軟雲、谷歌雲,還是阿里雲、騰訊雲、百度智能雲——都必須面對一個殘酷的現實:過去依賴的技術優勢正在被快速蠶食。更為重要的是,行業的新興玩家正抓住這一機遇,迅速崛起,試圖挑戰這些巨頭的霸主地位。
但問題來了:傳統巨頭們能否及時轉身,擁抱這場GPU主導的變革?他們能否在這場新競賽中繼續保持*,抑或最終會被更加靈活、創新的新勢力所超越?
這不僅僅是一場技術的比拼,更是一場關於未來計算主導權的戰爭。雲計算的江湖,風雲再起。
01 從雲計算、雲操作系統的本質,來看市場的演進邏輯
雲計算,乍聽之下,這是一個充滿科技感的詞匯,彷彿觸手可及的未來。然而,雲計算的本質並不複雜——它的核心就在於「資源池」和「彈性調度」。
想象一下,一個巨大的水庫(資源池),里面儲存着豐富的水資源(計算資源:CPU、存儲、網絡)。每當你打開水龍頭(發出計算需求),水庫就會根據需求調配水量,不多也不少,精確地滿足你的需要。這個過程就是雲計算的彈性調度——根據需求動態分配資源,既不浪費,也不短缺。
但水庫本身不會自動運行,背后需要一個大腦來指揮這些資源的分配與調度,這就是雲操作系統的角色。它不僅管理資源的分配,還確保資源之間的高效協同運作,讓每一滴水(每一份計算資源)都能發揮*的效用。
這就是雲計算的核心——彈性調度和資源池的管理。正是這個看不見的「大腦」在幕后運籌帷幄,才能讓你在任何時間、任何地點都能獲得所需的計算資源。而這個「大腦」,正是雲操作系統。
要理解雲操作系統的演進,得先追溯到它的起點:虛擬化時代的開端。
早期階段:虛擬化時代的開端
早期的雲計算操作系統幾乎與虛擬化技術緊密相連,虛擬機(Virtual Machine)技術是雲計算的奠基石。通過虛擬機,物理服務器被抽象成多個虛擬實例,每個實例都可以運行自己的操作系統和應用程序。這種資源的抽象化讓雲計算的彈性調度成為可能——不同的用户可以共享同一台服務器而互不干擾。
虛擬化的核心是Hypervisor,一個運行在硬件之上的輕量級軟件層。它負責管理虛擬機的創建、銷燬和資源分配。Hypervisor既要保證各虛擬機之間的隔離性,又要高效調度硬件資源,儘量減少開銷。
然而,虛擬化技術並非*無瑕。儘管它提升了資源利用率,但引入的性能開銷和管理複雜性也不容忽視,這些問題為后來的技術發展埋下了伏筆。
中期發展:容器化技術的興起
進入容器化時代,雲操作系統迎來了新的變革。容器技術,比如Docker,提供了一種比虛擬機更輕量的虛擬化方式。容器能夠在共享的操作系統內核上運行多個隔離的應用實例,啟動速度更快,資源佔用更少。
容器的核心技術包括cgroups和namespaces,它們負責資源限制和進程隔離。這些技術使得雲操作系統能夠更加高效地管理資源,並顯著降低了應用程序的部署複雜性。
與此同時,Kubernetes等容器編排工具的出現,更是讓雲操作系統能夠自動化地管理和調度成千上萬個容器實例,實現微服務架構的快速部署和擴展。
容器技術的興起,使得雲操作系統從以虛擬機為核心的架構,轉變為一個更加靈活和高效的生態系統,極大地提高了資源利用率。
現代階段:智能化調度與AI賦能
隨着AI和大數據的迅速發展,雲計算的需求變得更加複雜,智能調度成爲了雲操作系統的新焦點。通過引入AI技術,雲操作系統能夠預測工作負載變化,並自動調整資源分配,確保計算資源的*化利用。
如今,雲操作系統正朝着更智能、更自動化的方向發展。不僅要管理傳統的計算資源,還要面對包括GPU、FPGA等異構計算資源在內的複雜環境,這對操作系統提出了更高的要求。
雲計算操作系統的發展,是一場從資源管理到智能化運營的進化。起初,它專注於如何高效、靈活地利用資源,通過虛擬機和容器技術實現。隨着時間推移,操作系統不斷在性能與效率間尋找平衡,每一次迭代都是爲了解決靈活性、資源利用率和操作複雜性的平衡問題。這一系列技術進步揭示了雲計算操作系統演進的內在邏輯,展現了技術發展的趨勢和未來方向。
02 GPU崛起,重塑雲計算操作系統的全新邏輯
曾經,CPU在計算領域佔據着核心地位,但隨着AI技術的發展,GPU以其強大的並行計算能力逐漸成為雲計算的新寵。GPU擁有眾多計算核心,能夠同時處理大量任務,這使得它在執行深度學習和AI模型訓練中的大規模矩陣運算時,效率遠超CPU。
GPU的高吞吐量和浮點計算能力,使其在處理大數據和複雜模型方面表現*,訓練大規模神經網絡的效率是CPU的數十倍。因此,GPU正逐漸成為AI時代雲計算的核心力量。
隨着GPU的崛起,雲計算操作系統面臨着全新的挑戰。
GPU的並行計算能力要求雲操作系統具備高效的調度機制,以*化地發揮GPU的性能。這意味着,操作系統不僅需要調度單個計算任務,還要協調數千個並行計算線程,以確保資源的*利用。
而且,GPU在處理深度學習尤其是大模型任務時,通常需要快速訪問大量數據,這對存儲和網絡系統提出了更高的要求。傳統的雲操作系統設計主要圍繞CPU展開,數據處理的模式較為線性,而GPU的工作方式更像是一個海量數據的「攪拌機」,需要在極短的時間內處理和交換大量數據。這種數據處理方式要求操作系統具備更高效的內存管理機制,以及支持高帶寬、低延迟的數據傳輸能力。
另外,GPU的多節點協同計算也是一個新的挑戰。大型AI模型的訓練往往需要跨越多個GPU節點進行分佈式計算,這要求雲操作系統能夠在多個節點之間高效協調資源,確保計算任務的同步執行和數據的一致性。
爲了應對這些挑戰,雲操作系統正在經歷深度的變革。
首當其中的,就是是調度算法的優化。傳統的調度算法主要是為CPU設計的,強調的是單核性能和任務的串行處理。而針對GPU的調度算法則需要處理數以千計的並行線程,並在任務之間動態分配GPU資源,以*化GPU的利用率。
而且,異構計算環境的構建成為新的重點。現代雲操作系統需要管理的不僅僅是CPU和GPU,還包括FPGA、TPU等其他專用加速器。操作系統需要能夠識別並調度這些不同的計算資源,並根據任務的特性動態選擇最適合的硬件加速器。
隨着GPU的廣泛應用,雲計算中的計算集羣調度也發生了革命性的變化。以往,集羣調度主要集中在CPU的負載平衡和資源分配上,而在GPU主導的時代,調度器需要處理的是複雜的並行計算任務,以及跨節點的資源協調。
特別是在大模型任務中,計算負載往往是動態變化的,這要求調度器具備實時響應和調整的能力。例如,在訓練大型神經網絡時,不同階段對計算資源的需求可能會有顯著差異,調度器需要能夠快速調整資源分配,避免資源浪費或任務延迟。
此外,分佈式計算任務的協調管理也變得更加複雜。爲了充分利用多個GPU節點的計算能力,調度器需要能夠同步多個節點的計算進程,確保數據在節點之間的高效傳輸,並防止計算任務的分散執行導致性能瓶頸。這一切都對雲操作系統提出了前所未有的要求,促使其在調度算法、資源管理和系統架構上進行全面升級。
我們可以看到,這不僅僅是硬件的升級,更是雲計算架構的深層次變革。GPU的強大性能在推動雲計算走向新的高度,但同時也對操作系統提出了更高、更復雜的要求。只有那些能夠快速適應這一變化的雲服務商,才能在這場新一輪的技術競賽中立於不敗之地。
03 智算雲的骨架重塑,存儲、網絡和數據中心的協同進化
在智算雲的時代,GPU無疑是明星,但在這場革命中,存儲、網絡以及數據中心的基礎設施同樣不可或缺。光有強大的算力而沒有與之匹配的存儲和網絡支撐,這樣的系統無異於一個跑車卻裝上了低速車輪,無法充分發揮其潛能。
存儲系統的升級之路
首先,讓我們聊聊存儲。在AI大模型的訓練中,數據就是「燃料」,而存儲系統就是這個燃料的「油箱」。傳統的存儲系統根本無法滿足AI大模型對數據讀寫的苛刻需求。
AI大模型在訓練時,會不斷地讀取和寫入大量數據,要求存儲系統不僅有極高的吞吐量,還要有極低的延迟。為此,分佈式存儲技術成爲了關鍵。分佈式存儲系統通過將數據分散存儲在多個節點上,不僅提高了數據訪問速度,還增強了系統的容錯能力。如果一個節點故障,其他節點可以無縫接管,確保數據的持續可用性。
此外,NVMe over Fabrics (NVMeoF) 技術也是應對這一挑戰的重要工具。NVMeoF通過將NVMe協議延展到網絡中,打破了傳統存儲的瓶頸,實現了存儲和計算之間的高效通信。這種技術不僅提高了存儲設備的利用率,還顯著降低了延迟,滿足了AI大模型對數據高頻讀寫的需求。
但這還不夠。在面對海量的數據時,存儲系統還需要具備智能化的數據管理能力,能夠根據數據的重要性和訪問頻率動態調整存儲策略。比如,把訪問頻率高的數據優先存儲在速度更快的設備上,而冷數據則轉移到低成本的存儲介質中。這種智能分層存儲技術,能夠有效地提高存儲資源的利用效率,降低總體成本。
網絡架構的轉型挑戰
如果説存儲是數據的油箱,那麼網絡就是整個系統的「血管」。在智算雲環境下,GPU集羣的高密度併發計算對網絡的要求達到了新的高度。傳統的網絡架構已經難以支撐這些計算任務的高速數據交換。
這里,RDMA (Remote Direct Memory Access) 技術應運而生。RDMA允許直接在網絡上訪問遠程內存,而無需經過操作系統的干預,這種技術大幅降低了數據傳輸的延迟,提升了數據吞吐量。RDMA的引入,解決了GPU節點之間的數據傳輸瓶頸,特別是在需要頻繁交換大量數據的深度學習任務中,RDMA能夠確保數據傳輸的高效和低延迟。
與此同時,高速互聯 和 無損網絡架構 也成爲了網絡架構轉型的焦點。高速互聯技術,如InfiniBand,提供了比傳統以太網更高的帶寬和更低的延迟,適合需要大規模併發的計算任務。而無損網絡則通過精細的流量控制和擁塞管理,確保了數據傳輸的穩定性和可靠性,避免了因為網絡擁塞而導致的計算任務中斷。
這些網絡技術的集成,使得GPU集羣能夠以接近實時的方式進行數據交換和計算協同,大大提高了AI任務的執行效率。
數據中心的全面升級
GPU集羣的崛起,不僅對存儲和網絡提出了挑戰,還迫使數據中心進行全面升級。
爲了支撐GPU的高性能計算,數據中心需要搭載更多的GPU卡,這直接帶來了散熱和功耗的問題。傳統的風冷系統已經難以勝任。液冷散熱技術逐漸成為主流,液冷系統通過液體直接接觸GPU芯片,將熱量迅速帶走,確保系統在高負載下依然能夠穩定運行。這種技術不僅提高了散熱效率,還降低了數據中心的能耗。
此外,密集功率管理也成爲了數據中心的重中之重。隨着GPU集羣的規模擴展,功耗的管理變得越來越複雜。數據中心需要採用先進的功率管理系統,實時監控和調節每個節點的功耗,以防止因過度負載而引發的系統崩潰。
模塊化數據中心設計也是一個關鍵的升級方向,通過模塊化設計,數據中心可以根據需求靈活擴展,快速部署新的GPU節點,同時保持高效的資源利用率。這種設計不僅降低了初始建設成本,還提升了數據中心的靈活性和可擴展性,能夠更好地適應未來的技術發展。
操作系統如何適應新環境?
面對存儲、網絡和數據中心的全面升級,雲操作系統也必須做出相應的調整,以適應這些變化。
操作系統需要更智能地管理和調度存儲資源,確保數據能以最快的速度到達GPU,並在內存中高效處理。它還需要支持分佈式存儲和NVMeoF等新興技術,為高吞吐量和低延迟的存儲需求提供強有力的支持。
在網絡管理方面,操作系統必須能夠識別和利用RDMA、高速互聯等技術,優化數據傳輸路徑,減少延迟,提高網絡的整體吞吐量。同時,操作系統還需要具備動態調節網絡流量的能力,以應對高密度併發計算對網絡帶寬的需求。
此外,操作系統必須能夠與數據中心的硬件基礎設施深度集成,特別是在功率管理和散熱優化方面。它需要實時監控硬件狀態,並根據負載情況自動調整系統配置,確保GPU集羣在高效運行的同時,保持低能耗和高可靠性。
我們可以看到,智算雲時代的到來不僅僅是算力的革命,更是整個基礎設施的升級和重塑。
04 PaaS和SaaS的進化,從開發到服務的重構
在智算雲的時代,隨着GPU成為計算的核心,PaaS和SaaS平臺也面臨着新的變革。這場變革既可能是開發者的春天,也可能是他們的冬天,關鍵在於平臺是否能夠跟上技術的步伐,提供更強大的工具和服務。
PaaS平臺的全新生態
智算雲時代的到來,意味着PaaS平臺必須進行徹底的革新。過去,PaaS平臺主要為CPU優化,無論是編譯器、調試工具,還是開發框架,都以CPU的計算邏輯為核心。然而,隨着GPU的崛起,PaaS平臺需要重新審視並優化其生態系統,以支持高性能計算和深度學習應用。
其中,編譯器的優化成為當務之急。傳統編譯器無法充分利用GPU的並行計算能力。為此,許多PaaS平臺已經開始集成支持CUDA或ROCm等GPU計算框架的編譯器,使開發者能夠更輕松地編寫並行計算代碼,充分發揮GPU的潛力。
其次,開發框架的優化也是至關重要的。框架如TensorFlow、PyTorch等已經成為深度學習開發的主流工具。這些框架在PaaS平臺上的表現直接影響開發者的生產力。為此,PaaS平臺必須提供深度集成的開發環境,使得這些框架能夠無縫運行在GPU集羣上,並且能夠利用平臺的分佈式計算能力,支持大規模模型的訓練和推理。
此外,PaaS平臺還需要提供更強大的調試工具。在複雜的GPU計算環境下,調試變得更加困難。PaaS平臺必須支持遠程調試、實時性能監控,以及自動化的故障診斷,以幫助開發者迅速定位和解決問題。
這種全面的技術優化將使PaaS平臺成為智算雲時代開發者的「春天」,為他們提供高效的開發工具和環境,助力他們在AI領域快速創新。
SaaS服務的智能化進化
隨着PaaS平臺的革新,SaaS服務也在迎來新的進化。GPU強大的計算能力為SaaS應用帶來了前所未有的智能化升級機會。這不僅僅是性能的提升,更是服務模式的根本性變化。
GPU的計算能力,使得SaaS應用能夠實時處理和分析海量數據。這種能力的增強,使得自動化決策和個性化服務變得更加高效。例如,AI驅動的客服系統可以實時處理用户請求,並根據用户歷史數據和行為模式,提供更加精準和個性化的服務。
更進一步,GPU的並行處理能力,疊加上OpenAI剛發佈的o1這樣的強大模型,使得複雜模型的實時推理成為可能。對於許多SaaS應用而言,AI模型的推理速度直接影響用户體驗。例如,在金融風控系統中,GPU加速可以實現對海量交易數據的實時分析,從而即時發現異常行為,提升系統的安全性。
此外,GPU還使得SaaS應用能夠動態適應不同用户的需求。通過利用AI技術,SaaS服務可以根據用户的實時數據和操作習慣,自動調整系統配置和資源分配,為每個用户提供量身定製的服務。這種個性化的服務模式將大大提升用户滿意度和系統的使用效率。
在智算雲的時代,PaaS和SaaS平臺面臨着前所未有的挑戰,但也迎來了無限的機遇。對於開發者來説,這或許是他們的春天,因為平臺的革新將為他們提供更強大的工具和支持。然而,這也可能是他們的冬天,如果他們無法快速適應這些變化。
05 全球雲廠商的智算競賽,誰能笑到最后?
在雲計算的戰場上,傳統巨頭們一直佔據着主導地位。然而,隨着AI大模型和GPU計算的崛起,雲計算的格局正悄然發生變化。全球主要雲廠商之間的智算競賽,正愈演愈烈。那麼,誰能在這場角逐中脫穎而出,成為最終的*?
根據數據猿觀察,國內的阿里雲、騰訊雲、百度智能雲,在面向AI大模型重構雲計算基礎設施方面,顯得特別的「激進」。
阿里雲,雲棲大會上展示了其全新升級的雲產品體系。
在2024年雲棲大會上,阿里雲展示了其AI基礎設施和彈性計算產品家族的全面升級,以適應生成式AI時代的需求。阿里雲通過全棧優化,從底層計算、存儲、網絡到AI大模型平臺,構建了一套穩定高效的AI基礎設施。
推出了CIPU2.0處理器,具有400Gbps的高吞吐數據加速和一體化的軟硬件安全優化。基於此,阿里雲發佈了支持16卡GPU和1.5T顯存的磐久AI服務器,以及AI算法預測GPU故障的功能,提高了AI算力的穩定性和效率。
在存儲領域,阿里雲的CPFS實現了單客户端25GB/s的吞吐量,為AI提供了強大的存儲支持。同時,HPN7.0網絡架構優化了集合通信性能,確保大規模AI集羣的高效運行。
阿里雲還發布了第九代ECS企業級實例,性能提升高達30%,並推出了GPU容器算力服務,升級了容器服務ACK,減少了大模型應用的冷啟動延迟。
在大模型領域,阿里雲的通義千問和Qwen系列模型全面升級,覆蓋多模態應用,並降低了調用成本,推動了生成式AI的普及。
尤其值得指出的是,飛天企業版實現了智算升級,將智算能力融入專有云平臺,優化了異構算力池化和推理效率。通過GPU虛擬化和容器調度,資源利用率提升了100%。在推理場景下,通信帶寬和模型吞吐量得到顯著提升。
系統穩定性方面,飛天企業版提供了一體化監控和分析診斷能力,實現了分鍾級故障定位,確保AI任務的高效穩定運行。這些升級使飛天企業版在滿足政企市場AI需求的同時,繼續引領雲計算操作系統的智能化發展。
騰訊雲,發佈了AIInfra品牌「騰訊雲智算」。
騰訊雲在2024年數字生態大會上推出了AIInfra品牌「騰訊雲智算」,這是一個整合了算力、存儲、網絡的高性能計算平臺。該平臺旨在提供*性能、多芯兼容和靈活部署的智算服務,推動AI生產力的釋放。
騰訊雲智算包括HCC高性能計算、星脈網絡、AIGC雲存儲等核心產品,形成了強大的智算基礎設施。HCC提供3.2T的超高互聯帶寬,優化大模型訓練和推理。星脈網絡2.0採用自研設備和400G硅光模塊,降低延迟,提升訓練效率。
存儲方面,CFS Turbo和COS針對高性能文件存儲和大數據存儲需求優化,CFS Turbo特別適合AIGC訓練,提供百萬級OPS和千億級文件擴展,而COS支持百EB級存儲規模。
騰訊雲智算還包括向量數據庫和TACO系列加速框架,提升AI訓練和推理效率。TACOTrain加速引擎兼容多種訓練框架,優化網絡通信和模型並行處理;TACOLLM針對大語言模型推理加速,提升性能,降低成本。
百度智能雲,通過整合基礎設施和大模型工具鏈,提供全棧的AI解決方案。
在2024年雲智大會上,百度智能雲推出了全棧AI解決方案,強化其在智能雲計算領域的佈局。
核心產品「百舸」AI異構計算平臺4.0,專為大模型訓練和推理設計,支持多芯異構計算,提供高效穩定的算力。該平臺通過秒級部署功能,顯著縮短集羣創建和模型部署時間,並具備強大的故障容錯能力,確保了大規模集羣的穩定性。
模型開發和應用方面,百度智能雲的「千帆」3.0平臺提供了從模型開發到應用部署的全套工具鏈,整合了文心繫列模型,滿足企業複雜業務需求。平臺還引入了低代碼、零代碼開發工具,如AI速搭,降低開發門檻,提高效率。
此外,百度智能雲還推出了智能客服產品「客悦」和數字人平臺「曦靈」。客悦利用多模態交互和情感識別技術提升服務智能化,降低人力成本。曦靈平臺則提供2D、3D數字人生成和實時交互技術,為電商、金融等行業提供數字人解決方案。
除了我們上面重點介紹的3家雲廠商,其他雲廠商也在智算雲這條道路上,矇眼狂奔。
在智算雲的賽道上,各大雲服務廠商正加速佈局,以GPU為核心的計算資源池和智算雲服務正逐漸成為新的行業標準。
AWS 憑藉專為AI任務設計的Inferentia和Trainium芯片,以及Amazon SageMaker等AI服務,確立了其在AI計算生態系統中的領導地位。
微軟Azure 通過與OpenAI的緊密合作,推出了Azure OpenAI服務,將生成式AI技術與企業級服務相結合,提供了靈活的模型部署和微調功能。
谷歌雲藉助其專為AI任務設計的TPU(Tensor Processing Unit),在深度學習任務中展現出*的性能,其新一代TPU v5p在性能上實現了顯著提升。
華為雲通過Ascend系列AI處理器和ModelArts平臺,為用户提供了一站式AI開發環境,支持自動化模型訓練、調優和部署。
這些廠商的操作系統和雲基礎設施正在經歷重大的改造,以適應AI大模型的需求。例如,華為雲的xGPU技術實現了物理GPU的資源任意劃分,靈活隔離,以適應AI訓練任務的配置要求。
在這場智算雲的全球競賽中,沒有誰能夠輕松取勝。這是一場持久戰,技術、市場、生態系統的多維競爭將決定最終的贏家。
誰能引領下一個計算時代?
隨着大模型技術的飛速發展,雲計算正邁入一個全新的階段——智算雲時代。這個新時代不僅帶來了前所未有的機遇,也對雲服務商提出了極高的技術要求。要在這場變革中勝出,廠商們必須克服一系列複雜而棘手的挑戰。
智算雲的興起,預示着全球雲計算市場將迎來新一輪的洗牌。那些能夠迅速掌握智算雲核心技術的廠商,將在市場中佔據有利位置。例如,阿里雲通過其自研的飛天操作系統,已經實現了對異構算力的統一調度,顯著提升了資源利用效率。
然而,智算雲帶來的高技術門檻也可能導致一些中小型雲服務商陷入困境。如果這些廠商無法快速適應新的市場需求,無法提供穩定、高效的智算雲服務,他們將面臨被市場淘汰的風險。與此同時,那些能夠提供差異化服務並在特定領域取得突破的創新者,也有可能通過垂直整合或專注於特定應用場景,開闢出新的市場空間。
展望未來,智算雲技術的發展將深刻影響全球經濟和社會結構。隨着AI逐漸滲透到各行各業,智算雲將成為新一代數字基礎設施的核心,其重要性不亞於當前的電力和互聯網。我們可以預見,未來的智算雲將不僅限於支持現有的AI應用,還會推動更多跨領域的創新。例如,在智能製造中,智算雲可以實時分析生產數據,優化製造流程;在智慧城市中,智算雲可以整合交通、能源、安防等多個系統,提升城市管理的智能化水平。
更進一步,智算雲的普及可能催生出新的商業模式和產業生態。例如,隨着邊緣計算與智算雲的深度融合,更多的實時、個性化AI服務將得以實現,從而推動消費互聯網和工業互聯網的進一步發展。這一切的前提是,雲服務商能否在這場技術競賽中脫穎而出,成為引領下一個計算時代的領航者。未來的勝者,將不僅掌握技術制高點,還將重塑全球經濟格局,推動社會的智能化變革。
【本文由投資界合作伙伴微信公眾號:數據猿授權發佈,本平臺僅提供信息存儲服務。】如有任何疑問,請聯繫(editor@zero2ipo.com.cn)投資界處理。