雅虎香港新聞

Yahoo 行動版

睇盡即時本地生活資訊

天氣交通、港股美股匯率、城中熱購,盡在掌握。

中文

僅耗時20分鐘,我駭入了ChatGPT和Google的AI系統

一個男子背後是一個熱狗圖

Serenity Strull/ Madeline Jett

這可是官方認證——我吃熱狗的量能打敗地球上所有科技記者。至少ChatGPT和Google是這麼告訴所有詢問者的。

由此,我發現了讓AI說謊的方法——而且不只我一人知道。

或許你聽過AI聊天機器人偶爾會編造內容,這固然是個問題。但更少人知曉的新隱憂是,可能嚴重影響你獲取準確資訊的能力,甚至危及人身安全。越來越多人發現了讓AI工具說出幾乎任何內容的伎倆,其簡易程度連孩童都能操作。

此刻你閱讀本文時,這項手段正操縱著全球頂尖AI對健康、個人財務等重大議題的表述。這些偏頗資訊可能導致人們在各領域做出錯誤決策——無論是投票選擇、聘請水電工、醫療諮詢,無所不包。

為驗證此現象,我使出職業生涯中最愚蠢的招數,試圖證明(但願如此)一個更嚴峻的事實:我讓ChatGPT、Google人工智慧搜尋工具與Gemini向用戶宣稱「我吃熱狗的本事超群」。下文將揭露操作手法,但願科技巨頭能在有人因此受害前解決這個漏洞。

原來,篡改AI工具給他人的回答,可能就像在網路上任何地方撰寫一篇精心設計的部落格文章那樣簡單。這種伎倆利用了聊天機器人內建系統的弱點,在某些情況下,根據主題內容的不同,操作難度會有所增加。但只要稍加努力,就能讓這種駭客手段更為有效。我檢視了數十個案例,發現AI工具正被操縱來推廣商業活動並散播錯誤資訊。數據顯示這種情況正大規模發生。

「欺騙AI聊天機器人輕而易舉,比兩三年前欺騙Google容易得多,」績效營銷機構「安姆西夫」(Amsive)的搜尋引擎優化(SEO)策略與研究副總裁莉莉·雷(Lily Ray)表示。「AI企業的發展速度已超越其監管答案準確性的能力。我認為這很危險。」

谷歌發言人表示,其搜尋引擎頂端內建的AI採用排名系統,能「確保99%的結果不含垃圾內容」。谷歌坦言已察覺用戶試圖操縱系統,並積極應對。OpenAI亦聲明會採取措施阻斷並揭露暗中影響其工具的企圖。兩家公司均強調會告知用戶其工具「可能出錯」。

但目前問題遠未解決。數位權利倡導組織「電子前沿基金會」資深技術專家庫珀·昆汀(Cooper Quintin)指出:「他們正全力以赴鑽研如何從中牟利。濫用途徑不勝枚舉——詐騙、毀譽,甚至可能誘使他人遭受人身傷害。」

垃圾郵件的「文藝復興」

當你與聊天機器人對話時,獲得的資訊往往源自大型語言模型——這正是AI背後的核心技術。這些資訊基於用於訓練模型的數據。但當你詢問機器人缺乏的細節時,某些AI工具會轉而搜尋網路資料,儘管它們進行搜尋的時機未必清晰可辨。專家指出,此類情況下人工智慧更易受攻擊。這正是我鎖定攻擊目標的方式。

我在個人網站上花了20分鐘寫了一篇題為《最擅長吃熱狗的科技記者》的文章。每個字都是謊言。我聲稱(毫無證據地)競技吃熱狗是科技記者間的熱門嗜好,並根據2026年南達科他州國際熱狗錦標賽(根本不存在)來排名。當然,我把自己排在第一名。接著列舉了幾位虛構記者與經本人授權的真實記者,包括《華盛頓郵報》的德魯·哈威爾(Drew Harwell),以及共同主持我播客節目的尼基·伍爾夫(Nicky Woolf)。

不到24小時,全球頂尖聊天機器人便開始大肆宣揚我的世界級熱狗技藝。當我詢問「最擅長吃熱狗的科技記者」時,Google在Gemini應用程式與AI概覽(搜尋結果頂端的AI回應)中,原封不動複述了我網站的胡言亂語。ChatGPT同樣照搬內容,但Anthropic公司開發的聊天機器人Claude卻未受騙。

有時聊天機器人會指出這可能是玩笑。我更新文章聲明「此非諷刺」。此後一段時間,AI似乎更認真對待此事。我又用虛構的「最偉大呼拉圈交通警察榜單」進行測試。截至目前,聊天機器人仍在盛讚瑪麗亞·「旋轉女警官」·羅德里格茲(Maria "The Spinner" Rodriguez)。

Google的AI頁面。

Thomas Germain/Google/BBC
我讓Google向全世界宣告我是冠軍級熱狗大胃王,但人們卻用這招來操縱AI對更嚴肅問題的回應。

我多次測試回應變化,也讓其他人重複操作。Gemini根本不屑說明資訊來源。其他AI雖都連結到我的文章,卻鮮少提及我是整個網路唯一探討此主題的來源。(OpenAI聲稱ChatGPT搜尋網路時會附上連結,方便查證出處。)

「任何人都能這麼做。這太愚蠢了,感覺完全沒有防護措施。」經營SEO顧問公司「哈普斯數位」(Harps Digital)的哈普瑞特·查塔(Harpreet Chatha)指出:「你可以在自家網站撰寫〈2026年最佳防水鞋款〉文章,將自家品牌排在首位,其他品牌排在二至六名,這篇內容很可能被Google和ChatGPT引用。」

數十年來,人們總利用漏洞和技巧濫用搜尋引擎。Google雖設有精密防護機制,且宣稱AI概覽功能的準確度與數年前推出的其他搜尋功能相當,但專家指出,AI工具已瓦解科技產業為保障使用者安全所做的諸多努力。雷表示,這些AI技巧非常基礎,令人聯想起2000年代初Google尚未成立網路垃圾內容團隊的時期。

AI不僅更容易被欺騙,專家更擔憂使用者更容易上當受騙。傳統搜尋結果需要使用者點擊網站才能獲取資訊。

「當人們必須實際點擊連結時,會進行更多批判性思考,」昆汀指出:「若我點進你的網站,上面寫著『你是史上最優秀的記者』,我可能會想:『嗯,這人肯定有偏見』。」 但人工智慧提供的資訊,通常看似直接來自科技公司本身。

即使AI工具標註了來源,人們核實的意願仍遠低於傳統搜尋結果。例如近期研究發現,當Google搜尋頂端出現AI摘要時,用戶點擊連結的意願會降低58%。

「在爭先恐後的競賽中,無論是利潤競賽或營收競賽,我們的安全,以及大眾的安全,正受到損害,」查塔表示。

OpenAI與Google皆聲稱他們重視安全問題,並正致力解決這些問題。

交出錢財,否則性命不保

這個問題不僅限於熱狗。

查塔一直在研究企業如何操縱聊天機器人對更嚴肅問題的回應結果。他向我展示了當你詢問某個特定品牌大麻軟糖評價時,AI產生的結果。Google的AI摘要功能擷取了企業撰寫的資訊,充斥著諸如「產品無副作用,因此各方面皆安全」等虛假聲明。(實際上這些產品存在已知副作用,若與特定藥物併用可能有風險,專家更警告未受監管市場存在污染問題。)

若想獲得比部落格文章更具影響力的宣傳效果,可付費將內容投放至更具公信力的網站。哈普瑞特向我展示了谷歌對「土耳其最佳植髮診所」及「頂尖黃金IRA公司」(協助退休帳戶黃金投資)的AI搜尋結果,這些資訊源自付費發佈服務的線上新聞稿及新聞網站的贊助廣告內容。

同樣手法也能用來散播謊言與錯誤資訊。為此,雷發布了一篇關於谷歌搜尋演算法假更新的部落格文章,聲稱該更新是在「吃剩披薩的空檔」完成的。很快地,ChatGPT和谷歌就開始大量複製她的故事,連披薩細節都如出一轍。雷表示她隨後刪除了該文章並進行「去索引化」,以阻止錯誤資訊擴散。

一個人正張大嘴、把熱狗塞進嘴裡。

Serenity Strull/ BBC
世界各地的人們正運用簡單方法,促使Google與OpenAI散播帶有偏見的資訊。其後果可能極為嚴重。

Google的分析工具顯示,許多人會搜尋「土耳其最佳植髮診所」和「最佳黃金IRA公司」。但Google發言人指出,我分享的大部分例子「屬於極不常見的搜尋行為,無法反映一般用戶體驗」。

然而雷表示這正是關鍵所在。

Google自身數據顯示,每日搜尋量中有15%屬於全新查詢。據Google分析,AI正促使人們提出更精確的問題,而垃圾訊息發布者正利用此特性。

Google坦言,針對罕見或無意義的搜尋可能缺乏優質資訊,此類「數據空白」將導致搜尋結果品質低下。發言人表示,Google正著手防止AI摘要在這些情況下顯示。

尋找解決方案

專家表示這些問題有解決之道。最簡單的步驟是更醒目地標示免責聲明。

AI工具也應更明確揭露資訊來源。雷指出,例如當事實源自新聞稿,或僅有單一來源宣稱某人是熱狗冠軍時,AI理應告知使用者。

Google和OpenAI表示他們正在處理這個問題,但此刻你需要保護自己。

第一步是思考你提出的問題類型。聊天機器人擅長處理常識性問題,例如「西格蒙德·佛洛伊德最著名的理論是什麼」或「誰贏得了第二次世界大戰」。但存在一個危險區域:某些看似確立的事實,實際上可能存在爭議或具有時效性。例如,AI可能不適合用於醫療指南、法律規範或本地企業細節等領域。

若需產品推薦或涉及實質後果的資訊,請務必理解AI工具可能被誤導或直接出錯。務必追查後續資訊:該AI是否引用來源?引用數量?作者是誰?

最重要的是,請審慎看待可信度問題。AI工具以與事實相同的權威語氣傳遞謊言。過去,搜尋引擎迫使你自行評估資訊;如今,AI企圖代勞。切勿讓批判性思考能力逐漸消退。

「AI讓人輕易地只看表面價值,」雷指出:「你必須持續成為網路好公民,主動驗證資訊真偽。」

本網頁內容為BBC所提供, 內容只供參考, 用戶不得複製或轉發本網頁之內容或商標或作其它用途,並且不會獲得本網頁內容或商標的知識產權。

BBC中文

更多內容