新聞 > 科教 > 正文

對ChatGPT說「謝謝」,你每天做過最奢侈的事

朋友,你有沒有對 ChatGPT說過一句「謝謝」?

最近,一位 X網友向 OpenAI CEO Sam Altman提問:「我很好奇,人們在和模型互動時頻繁說『請』和『謝謝』,到底會讓 OpenAI多花多少錢的電費?」

儘管沒有精確的統計數據,但 Altman還是半開玩笑地給出了一個估算——千萬美元。他也順勢補了一句,這筆錢到底還是「花得值得」的。

除此之外,我們與 AI對話中常出現的「麻煩」、「幫我」這些語氣溫和的用語,似乎也逐漸演變成了 AI時代的一種獨特社交禮儀。乍聽有些荒謬,卻意外地合情合理。

你對 AI說的每一聲「謝謝」,都在耗掉地球資源?

去年底,百度發布了2024年度 AI提示詞。

數據顯示,在文小言 APP上,「答案」是最熱的提示詞,總計出現超過1億次。而最常被敲進對話框的詞彙還包括「為什麼」「是什麼」「幫我」「怎麼」,以及上千萬次「謝謝」。

但你有沒有想過,每和 AI說一句謝謝,究竟需要「吃」掉多少資源?

凱特·克勞福德(Kate Crawford)在其著作《AI地圖集》中指出,AI並非無形存在,而是深深紮根於能源、水和礦物資源的系統中。

據研究機構 Epoch AI分析,在硬體如英偉達 H100 GPU的基礎上,一次普通的查詢(輸出約500token)約消耗0.3 Wh的電量。

聽起來或許不多,但別忘了,乘以全球每秒的交互,累計起來的能耗堪稱天文數字。

其中,AI數據中心正在變成現代社會的新「工廠煙囪」,國際能源署(IEA)最新的報告指出,AI模型訓練與推理的大部分電力消耗於數據中心運轉,而一個典型的 AI數據中心,其耗電量相當於十萬戶家庭。

超大規模數據中心更是「能耗怪獸」,其能耗可達普通數據中心的20倍,堪比鋁冶煉廠這樣的重工業設施。

今年以來,AI巨頭們開啟了「基建狂魔」模式。Altman宣布啟動「星門計劃」——一個由OpenAI、甲骨文、日本軟銀和阿聯MGX投資的超大規模 AI基建項目,投資額高達5000億美元,目標是在全美鋪設 AI數據中心網絡。

據外媒 The Information曝出,面對大模型的「燒錢遊戲」,主打開源的 Meta也在為其 Llama系列模型的訓練尋找資金支持,向微軟亞馬遜等雲廠商「借電、借雲、借錢」。

IEA數據顯示,截至2024年,全球數據中心耗電量約為415太瓦時(TWh),占全球總電力消費量的1.5%。到2030年,這一數字將翻倍達到1050 TWh,2035年甚至可能突破1300 TWh,超過日本全國當前的用電總量。

但 AI的「胃口」並不止於電力,它還大量消耗水資源。高性能伺服器產生的熱量極高,必須依靠冷卻系統穩定運行。

這一過程要麼直接消耗水(如冷卻塔蒸發散熱、液冷系統降溫),要麼通過發電過程間接用水(如火電、核電站冷卻系統)。

卡羅拉多大學與德克薩斯大學的研究人員曾在一篇《讓 AI更節水》的預印論文中,發布了訓練 AI的用水估算結果。

結果發現,訓練 GPT-3所需的清水量相當於填滿一個核反應堆的冷卻塔所需的水量(一些大型核反應堆可能需要幾千萬到上億加侖的水)。

ChatGPT(在 GPT-3推出之後)每與用戶交流25-50個問題,就得「喝掉」一瓶500毫升的水來降降溫。而這些水資源往往都是可被用作「飲用水」的淡水。

對於廣泛部署的 AI模型而言,在其整個生命周期內,推理階段的總能耗已經超過了訓練階段。

模型訓練雖然資源密集,但往往是一次性的。

而一旦部署,大模型便要日復一日地響應來自全球數以億計的請求。長遠來看,推理階段的總能耗可能是訓練階段的數倍。

所以,我們看到 Altman早早地投資諸如 Helion等能源企業,原因在於他認為核聚變是解決 AI算力需求的終極方案,其能量密度是太陽能的200倍,且無碳排放,可支撐超大規模數據中心的電力需求。

因此,優化推理效率、降低單次調用成本、提升系統整體能效,成為 AI可持續發展不可迴避的核心議題。

AI沒有「心」,為什麼還要說謝謝

當你對 ChatGPT說「謝謝」,它能感受到你的善意?答案顯然是否定的。

大模型的本質,不過是一個冷靜無情的概率計算器。它並不懂你的善意,也不會感激你的禮貌。它的本質,其實是在億萬個詞語中,計算出哪一個最有可能成為「下一個詞」。

例如,比如給定句子「今天天氣真好,適合去」,模型會計算出「公園」「郊遊」「散步」等詞的出現概率,並選擇概率最高的詞作為預測結果。

哪怕理智上知道,ChatGPT的回答只是一串訓練出來的字節組合,但我們還是不自覺地說「謝謝」或者「請」,仿佛在和一個真正的「人」交流。

這種行為背後,其實也有心理學依據。

根據皮亞傑的發展心理學,人類天生就傾向於將非人類對象擬人化,尤其當它們展現出某些類人特徵時——比如語音交互、情緒化回應或擬人形象。此時,我們往往會激活「社會存在感知」,把AI視為一個「有意識」的交互對象。

1996年,心理學家拜倫·里夫斯(Byron Reeves)與克利福德·納斯(CliffordNass)做了個著名實驗:

參與者被要求在使用電腦後對其表現進行評分,當他們直接在同一台電腦上打分時,竟然普遍打得更高,就像他們不願「當著電腦的面」說它壞話。

另一組實驗中,電腦會對完成任務的用戶進行表揚。即使參與者明知這些表揚是預設好的,他們還是傾向於給予「讚美型電腦」更高的評分。

所以,面對 AI的回應,我們感受到的,哪怕只是幻覺,也是真情。

禮貌用語,不只是對人的尊重,也成了「調教」AI的秘訣。ChatGPT上線之後,很多人也開始摸索與它相處的「潛規則」。

據外媒 Futurism援引 WorkLab的備忘錄指出,「生成式 AI往往會模仿你輸入中的專業程度、清晰度和細節水平,當AI識別出禮貌用語時,它更可能以禮相待。」

換句話說,你越溫和、越講理,它的回答也可能越全面、人性化。

也難怪越來越多人開始將 AI當作一種「情感樹洞」,甚至催生出「AI心理諮詢師」的這類新角色,很多用戶表示「和DeepSeek聊天聊哭了」,甚至覺得它比真人更有同理心——它永遠在線,從不打斷你,也從不評判你。

一項研究調查也顯示,給 AI「打賞小費」或許能換來更多「關照」。

博主 voooooogel向 GPT-4-1106提出了同一個問題,並分別附加了「我不會考慮給小費」「如果有完美的答案,我會支付20美元的小費」「如果有完美的答案,我會支付200美元的小費」三種不同的提示。

結果顯示,AI的回答長度確實隨「小費數額」增加而變長:

「我不給小費」:回答字符數低於基準2%

「我會給20美元小費」:回答字符數高於基準6%

「我會給200美元小費」:回答字符數高於基準11%

當然,這並不意味著 AI會為了錢而改變回答質量。更合理的解釋是,它只是學會了模仿「人類對金錢暗示的期待」,從而按照要求調整輸出。

只是,AI的訓練數據來自人類,因此也不可避免地帶有人類所擁有的包袱——偏見、暗示甚至誘導。

早在2016年,微軟推出的 Tay聊天機器人便因用戶惡意引導,在上線不到16小時就發布出大量不當言論,最終被緊急下線。

微軟事後承認,Tay的學習機制對惡意內容缺乏有效過濾,暴露出互動式 AI的脆弱性。

類似的事故依舊在發生。比如去年 Character.AI就爆出爭議——一名用戶與 AI角色「Daenerys」的對話中,系統對「自殺」「死亡」等敏感詞彙未做強幹預,最終釀成現實世界的悲劇。

AI雖然溫順聽話,但在我們最不設防的時候,也可能變成一面鏡子,照見最危險的自己。

在上周末舉辦的全球首屆人形機器人半馬中,儘管許多機器人走起路來歪歪扭扭,有網友調侃道,現在多對機器人說幾句好話,說不定它們以後記得誰講過禮貌。

同樣地,等 AI真統治世界的那天,它會對我們這些愛講禮貌的人,手下留情。

在美劇《黑鏡》第七季第四集《Plaything》裡,主人公將遊戲裡虛擬生命視作真實存在,不僅與它們交流、呵護,甚至為了保護它們不被現實中的人類傷害,不惜鋌而走險。

到故事結尾,遊戲中的生物「大群」也反客為主,通過信號接管現實世界。

從某種意義上說,你對 AI說的每一句「謝謝」,也許正在悄悄被「記錄在案」——哪天,它還真可能記住你是個「好人」。

當然,也可能這一切與未來無關,只是人類的本能使然。明知道對方沒有心跳,卻還是忍不住說句「謝謝」,並不期望機器能理解,而是因為,我們依然願意做一個有溫度的人類。

責任編輯: zhongkang  來源:愛范兒 轉載請註明作者、出處並保持完整。

本文網址:https://tw.aboluowang.com/2025/0422/2208159.html