雅虎香港新聞

Yahoo 行動版

睇盡即時本地生活資訊

天氣交通、港股美股匯率、城中熱購,盡在掌握。

中文

人工智能大爆發後的監管命題:風險分類、路線分化與地緣政治陰影

Biomimetic robots mimic human expressions during the 2024 World AI Conference & High-Level Meeting on Global AI Governance at Shanghai World Expo Exhibition and Convention Center on July 7, 2024 in Shanghai, China

Getty Images

如果說兩年前ChatGPT的橫空出世,掀起了全球AI浪潮,那麼2025年初DeepSeek R1的發佈與爆紅,則真正讓無數中國人第一次親手觸及了AI應用。

三月伊始,中國通用人工智能代理(AI Agent)Manus迅速崛起,成為该領域的新星。儘管伴隨著「套殼」爭議,但它仍顛覆了大眾對AI的認知——不再只局限於對話框里的文字生成,而是能真正行動起來,在你的手機屏幕上自主操作。

Manus的爆火與爭議,恰恰折射出AI發展已進入真正意義上的「日新月異」階段:模型迭代、應用創新的速度,遠遠超出了普通用戶的適應能力。這種飛速演進帶來的不僅是驚嘆,更是對潛在風險的深切擔憂,監管問題也隨之浮出水面。

中欧国际工商学院决策科学与管理信息系统教授譚寅亮向BBC中文指出,目前亟需監管關注的AI風險主要集中在三個領域:深度偽造技術的濫用、個人隱私保護,以及公共基礎設施安全防護。

各國各地區雖已意識到AI潛在危害,並相繼推出不同程度的監管措施,但這些探索仍處於初級階段。受訪專家指出,監管面臨兩大關鍵難題:一是如何拿捏監管尺度,使創新與風險之間達到微妙平衡?二是在去全球化背景下,如何實現國際協調,以達成全球範圍內對AI的有效監管?

「『汽車』已經發明,所以要編交通規則」

小男孩與圖片中的機器人食指相接。

Getty Images

每一次新技術的誕生,總伴隨著新的風險。

汽車問世之初,交通事故隨之而來,人類不得不制定限速規則、道路規範、安全標準,以求駕馭這項技術。然而,即便如此,全球每年仍有超過一百萬人因交通事故而喪生。

今天,輪到人工智能了。

與汽車類似,AI在帶來巨大便利的同時,也催生了前所未有的安全隱患。

聯合國「AI For Good」(AI向善)項目創始人、物理學家萊因哈德·肖爾(Reinhard Scholl)對BBC表示,汽車發明之後,我們需要制定交通規則。AI的邏輯是一樣的。

但AI的複雜性遠超汽車。「人工智能內部算法複雜,推理過程呈現典型的黑盒模式,具有湧現性,」中國社科院學者張其仔和李偉在論文中指出。這意味著AI的輸出結果難以預測,並可能產生「人工智能幻覺」——看似合理卻違背常識的結果,從而引發誤解、誤判、誤用,甚至誤導決策與行動。

這種風險已經不再是理論上的假設,而是現實中的存在。

今年2月,BBC發佈的一份報告顯示,包括OpenAI的ChatGPT、微軟Copilot和谷歌Gemini在內的多款AI引擎,在生成新聞摘要時出現了「顯著的不準確性」,甚至扭曲了原有內容。研究發現,這些AI助手對新聞問題的回答中,有51%存在重大問題,其中19%的引用內容出現事實錯誤,如錯誤的數據、日期或陳述;另有13%的內容被篡改或根本不存在於原文中。

BBC強調:「無論是電視、廣播、數字平台還是AI助手,觀眾必須能夠信任新聞內容的準確性。社會運轉依賴於對事實的共同認知,不準確和扭曲的信息可能帶來切實傷害。當這些錯誤信息在社交網絡上傳播,其危害更會被無限放大。」

不僅如此,更具破壞性的DeepFake技術,也已成為現實威脅。通過AI換臉生成色情視頻,對名人乃至普通人的名譽和隱私造成嚴重侵犯。在韓國,這一問題已演變為嚴重的社會危機。

肖爾進一步指出,更令人擔憂的是,人工智能降低了惡意使用技術造成傷害的門檻。「理論上,物理學家知道如何製造核彈,但實際操作卻極為困難,」他說,「但如果有人想利用人工智能設計生物武器,他們甚至無需掌握太多專業知識。如果利用AI作惡變得足夠容易,總有人會去嘗試。」

中歐國際工商學院教授譚寅亮總結道:「人工智能應用於人類社會,最核心的是守住倫理底線,唯有如此,技術與社會發展才能真正實現可持續。」

中美歐的監管差異

作為AI技術的主要國家和市場,中國、美國和歐盟在AI監管上的態度和步伐截然不同。

步伐最快的是歐盟——作為全球首部全面監管人工智能的法規,歐盟的《人工智能法案》已於2024年8月1日正式生效,其中各項規定將會分階段實施。

歐盟對AI治理的關注自2018年以來一直在發展,當時歐盟委員會設立了一個專家組,就AI問題向委員會提供建議並起草AI倫理使用和發展指南,由此產生了《AI法案》。該法律的主要理念是基於AI對社會造成傷害的能力來進行監管:風險越高,規則越嚴格。

比如,對「基本權利構成明顯風險」的AI應用將被禁止,例如那些涉及處理生物識別數據的應用;而被視為「高風險」的AI系統,如用於關鍵基礎設施、教育、醫療保健、執法、邊境管理或選舉的系統,將必須遵守嚴格的要求;最後是低風險服務,如垃圾郵件過濾器,將面臨最輕的監管——歐盟預計大多數服務將屬於這一類別。

中欧国际工商学院教授谭寅亮評價,歐盟的監管體現了重視公民權利、隱私和數據保護的文化和價值觀,也受到其立法慣性的影響,但可能會限制市場的靈活性和創新速度。

美國副總統J.D.萬斯(共和黨)於2025年2月11日在巴黎大皇宮舉行的人工智能(AI)行動峰會全體會議上發表講話。

Getty Images
美國副總統萬斯警告不要過度監管AI,稱這樣做將扼殺這個新興產業部門。

監管最松的則是美國。目前幾乎沒有直接針對AI的聯邦法規。

特朗普政府上台後,甚至試圖進一步消除監管障礙,以促進美國開發的生成式AI和通用AI成為世界領先。

在2025年2月11日巴黎舉行的AI峰會上,美國副總統萬斯警告不要過度監管AI,稱這樣做將扼殺這個新興產業部門。他還暗示其他國家監管AI的努力旨在阻礙美國AI發展,他表示,「一些外國政府正考慮緊縮對美國科技公司的管控。」

克蘭菲爾·薩姆納律師事務所的一篇報告認為,鑒於這種傾向,在不久的將來美國出現聯邦監管制度似乎不太可能。然而,許多州已經介入並開始制定特定於州的AI法律和法規——2024年的近700項立法提案包含了與AI相關的要求,其中100多項已經通過。

「美國的監管方式可能有利於創新和技術突破,但可能會犧牲部分隱私和安全性。」譚寅亮認為,美國的自由市場傳統強調個人主義和最小政府干預,這些都促使美國在AI監管上更側重於市場的自我調節和技術創新,主要以倡議性文件和分散監管的方式來面對。

中國對AI的監管強度則處於兩者之間,一方面,中國AI監管尚未立法,但出台了一個暫行管理辦法;另一方面,人大常委會把對AI的立法列入未來規劃。

中國現行的《生成式人工智能服務管理暫行辦法》與一些其他中國互聯網管理法規配合,主要規定包括:提供者應當依法承擔網絡信息內容生產者責任,履行網絡信息安全義務;涉及個人信息的,依法承擔個人信息處理者責任,履行個人信息保護義務;提供具有輿論屬性或者社會動員能力的生成式人工智能服務的,應履行算法備案和變更、註銷備案手續。

「中國對AI的監管呈現出包容審慎的態度,採取先行先試的方式,在實踐中摸索有效的監管路徑,」譚寅亮認為,中國採取了一種平衡的監管策略,既注重產業發展又強調風險管理,在保障社會穩定和促進經濟發展之間尋求平衡,注重監管的科學性和有效性。

此外,英國則在AI監管上出現立場轉變。現任首相基爾·斯塔默宣稱英國將採取比歐盟更積極的AI發展策略。儘管支持前政府成立的AI安全研究所,但他暗示保守黨可能在AI安全問題上過度謹慎。前首相蘇納克曾警告人類可能失去對AI系統的控制,而現政府主張「先測試理解,後適度監管」。

跨國監管的願景與挑戰

2023年11月召開的人工智能安全峰會。

Getty Images
關於AI安全的國際間討論還未產生實質性合作。

當前,國際社會正逐步通過國際組織、多邊峰會、區域立法等途徑,在AI全球治理的原則共識上取得了進展。

然而,各國步調不一,使跨國合作變得異常艱難。

事實上,早在ChatGPT爆火之初,聯合國秘書長古特雷斯便召集安理會專項會議,警示AI風險。從網絡攻擊到核武關聯,從技術故障到虛假信息泛濫,他直言「不作為就是瀆職」。隨後,聯合國迅速成立由政商學界專家組成的「人工智能高級咨詢委員會」,併發布了首份全球AI監管建議。

今年2月11日,包括中國、法國、印度、歐盟在內的60個國家和國際組織,在巴黎人工智能行動峰會上簽署了《關於發展包容、可持續的人工智能造福人類與地球的聲明》。但美國和英國缺席。

期間,不斷有聲音質疑國際間監管AI是否現實可行。

維基百科創始人威爾士(Jimmy Wales)公開表示:「讓聯合國去監管AI,就像讓它監管Photoshop修圖軟件一樣荒謬。」

不過,對於理想的監管路徑,譚寅亮提出了自己的設想。他認為,政府應採用動態平衡策略,避免監管滯後或過度干預。通過分層分段監管、沙盒機制和多方協作,在保障公共安全的同時,為技術創新留足靈活空間。此外,還需建立對AI數據的動態監測反饋機制,以便在技術快速演進中及時調整政策。

2025年2月16日:在中国江苏省南京国际博览中心举办的2025人工智能智能机器人展览会上,工作人员带领机器犬进行展示。

Getty Images
對於理想的監管路徑,有中國專家認為,政府應採用動態平衡策略,避免監管滯後或過度干預。

地緣政治同樣影響著AI監管的可行性。擁有45年AI研究經驗的IBM沃森系統前負責人皮埃爾·哈倫(Pierre Haren)向BBC直言:「全球監管注定失敗。」他指出,一些國家根本不會接受這些規則。「我們生活在一個有朝鮮和伊朗這樣的不合作國家的世界里,」哈倫說,「他們不會承認圍繞人工智能的監管。你能想象伊朗一邊尋找摧毀以色列的方法,一邊關心AI監管嗎?」

而伊朗、朝鮮恰恰是核武器擴散問題上的焦點區域。事實上,已經有不少討論認為,對於AI的國際監管,應該仿照對於核技術的監管。

OpenAI首席執行官薩姆·阿爾特曼曾公開提議建立一個類似國際原子能機構(IAEA)的國際AI監管機構,負責檢查系統、進行審計、測試安全標準,並限制高級AI技術的部署。他認為,這種機構可以專注於降低「存在性風險」,同時允許各國在其他問題上保留自主權。

儘管IAEA模式被廣泛討論,但其在AI領域面臨諸多挑戰。例如,AI技術的發展速度遠超核能,現有機制可能無法及時響應。此外,全球政治分歧日益加劇,可能阻礙統一標準的達成。

即便如此,譚寅亮依然保持樂觀。他坦言,人工智能發展中待解的問題可能遠超人類現有認知,但相信人類智慧能夠在多樣性中尊重差異、尋求共識,並最終引領我們走向全球合作治理的未來。

拜登時代主管AI監管框架設計的阿拉蒂·普拉巴卡爾(Arati Prabhakar)在達沃斯論壇上表示,如果我們認真思考未來擺在眼前的任務——應對氣候危機、提升民眾健康與福祉、確保孩子們獲得良好教育,讓勞動者掌握新技能……很難想象不借助人工智能如何實現這些目標。在她看來,監管應該被視為實現目標的手段,而不僅僅是為了保護權利,換言之,監管Ai確實是保護國家安全的必要舉措,但更是實現上述偉大願景的必由之路。

本網頁內容為BBC所提供, 內容只供參考, 用戶不得複製或轉發本網頁之內容或商標或作其它用途,並且不會獲得本網頁內容或商標的知識產權。

BBC中文

更多內容