三大核心挑戰:1. 負責任的基礎設施擴張:如何在尊重生態限制的前提下,擴展算力與資料中心,同時維持透明度與問責制 。2. 優先應用至社會關鍵課題:確保 AI 工具與應用能解決迫切的社會問題,並具備在地化與包容性。3. 從試點轉向規模化:克服從實驗階段邁向大規模應用的挑戰 。#四大P作為指導性原則:星球 (Planet):AI 必須在地球限度內規模化 。目的 (Purpose):導向高價值的公共與氣候優先事項 。程序 (Process):透過透明度與問責制進行治理 。人 (People):由在地領導、徵得同意並進行公平協作 。 #能源需求挑戰推論階段的能耗負荷:AI 模型生命週期中,約 80%–90% 的碳排放並非來自訓練,而是日常運作中的「推論(Inference)」階段。冷卻系統成本:電力消耗中約有 30%–40% 用於冷卻基礎設施。精簡模型的潛力:相較於通用型大模型,針對特定任務設計的小型模型可減少高達 90% 的能源使用。#水資源需求挑戰高水壓力風險: 在本十年間,全球有 43% 的資料中心運作於高水壓力地區 。龐大的消耗量: 一個中型資料中心的年耗水量高達 1.1 億加侖 。資源集中化的衝擊: 由於資料中心往往群聚在少數特定地點 ,這種集中性會對當地社區的水資源使用、土地與環境造成顯著的局部影響 。#建立永續且資源效率高的AI系統 1.建立透明度與效能標籤制度- 推動「AI 能源之星」評級: 仿照家電能效標章,政府應針對 AI 模型與基礎設施建立 1 到 5 星的效率評等制度,並將其顯示於服務介面中 。- 強制資源揭露標準: 要求資料中心營運商定期申報每次推論(Inference)任務的能耗、碳足跡、以及水效能指標(WUE),且必須通過獨立第三方查核 。- 改革公共採購框架: 採購流程應從僅看「最低成本」轉向評估「最高精確度與永續性」,並將氣候承諾(如無碳能源 CFE 承諾)納入評分權重 。[2.] 整合資源規劃與智慧選址- 劃定「能源園區 (Energy Parks)」:政府應主動規劃結合再生能源發電與算力設施的特定區域,透過地理上的共址(Co-location)減少輸電損耗。 - 許可加速與區域引導:針對具備剩餘再生能源容量、低水壓力風險且具備氣候調適韌性的工業走廊,提供快速許可與稅務獎勵,以減少投資者的不確定性。 - 基於基準的許可制度:基礎設施的許可核發應基於明確的營運基準,如能源使用效率 (PUE) 目標、水效能指標 (WUE) 及無碳能源 (CFE) 承諾。 3. 將資料中心轉化為電網與資源網絡的積極貢獻者。 - 強制要求廢熱回收:要求大型新建設施將廢熱轉用於地區供暖、海水淡化或工業製程,將廢棄能源轉化為低碳熱源。 - 建構再生水「紫色管網(Purple-pipe)」:資助公用事業建立再生水網絡,強制高水壓力地區之設施達成 100% 非飲用水冷卻,減少對在地供水的衝擊。 - 部署需量反應與負載轉移計畫:引導 AI 訓練等非緊急任務移至綠電充沛時段;研究估計僅需削減 0.25% 的負荷,即可釋出約 76 GW 的電網容量。 #運用AI驅動氣候行動 1. 填補市場失靈:針對使命關鍵型應用提供公共財政許多具備高社會價值的氣候 AI 應用(如排放監測、材料研發)面臨回報週期長且商業誘因不足的困境,政府應主動介入 。- 部署針對性的公共融資:政府應針對無法僅靠市場驅動的氣候挑戰(如全球排放驗證系統…)提供靶向資金支持 。- 投資長期研發與材料發現……- 應用去風險工具與影響力分類法:利用氣候金融工具與明確的衝擊評估架構,引導私人資本投向具備高度公共價值的 AI 氣候方案 。2. 建構數據根基:將氣候數據視為數位公共基礎設施(DPI)AI 的有效性取決於數據的品質與在地性,政府應強化底層的數位「管路」工程 。- 指定氣候數據為數位公共基礎設施:確保關鍵環境數據集具備非排他性與互操作性,特別是針對土壤濕度、風場模式及甲烷排放等稀缺的「地面實況(Ground truth)」數據 。- 建立數據信託與監理沙盒:成立獨立的數據信託機構管理敏感數據(如能源、交通),並透過監理沙盒測試虛擬電廠與區域電力網絡調度等創新方案 。標準化數據共享協議:推動跨部門、跨層級政府及公用事業之間的標準化數據採集與共享標準 。3. 強化體制能力:從「研究就緒」轉向「決策就緒」政府機構必須具備內部能力,將 AI 見解整合進日常規畫與營運流程中 。- 建立內部詮釋與素養能力:針對氣候與行政團隊進行訓練,培養 AI 識讀能力,確保決策者能解讀模型的不確定性而非單純依賴外包服務 。- 將 AI 嵌入現有工作流程:不應建立獨立的 AI 儀表板,而應將模型直接整合進現有的營運系統(如電網調度或災害管理程序) 。- 執行績效驗證與持續評估:制度化信心標準與獨立評估機制,明確溝通模型的失敗模式、不確定性及效能可能下降的條件 。4. 確保公平與問責:落實在地化與人為監督為避免 AI 自動化不公或因偏見導致決策錯誤,政府必須設定嚴格的治理護欄 。- 推動主權或在地治理的氣候模型:鼓勵開發使用在地數據訓練的模型,以反映特定區域的氣候模式、基礎設施限制與政策現實 。-落實"Human-in-the-loop"機制:在涉及高成本、長壽命或系統性風險的強制執行決策(如災害撤離、水庫排放調度)中,AI 應僅具建議權,必須由人類專家進行審核與最終問責 。- 建立共創與社群夥伴關係:確保 AI 解決方案在設計階段即納入社群參與及傳統知識,以建立長期信任並確保技術產出符合在地需求 。
看到台達電基金會夥伴的linkedin分享,才注意到前兩週廣受矚目的印度AI影響力峰會上,也有出版AI與氣候的專題報告。此專家小組的主席為印度具有國際知名度的CEEW 執行長Arunabha Ghosh 。掃了一遍,對台灣討論此議題蠻有參考價值的,人機協作整理如下。#三大核心挑戰:1. 負責任的基礎設施擴張:如何在尊重生態限制的前提下,擴展算力與資料中心,同時維持透明度與問責制 。...
光一個台中二奈米,需水量就比目前google 全球所有的資料中心更多,用電量是全球google 的四分之一。AI供應鏈上的資源需求衝擊應該要獲得更多重視
Conventional “symbolic” AI runs computations according to algorithms and traditional computer programs that are stated abstractly ... But generative AI works in a different way, by approximating the things that humans have said in various situations.A symbolic AI system could simply look up where Shearer was born, such as by consulting his Wikipedia page. By contrast, generative AI systems ingest the entire internet, identify patterns of human language, and try to reconstruct what sounds plausible in a given contextHallucinations tend to be the kind of thing a person might say in a given context if she didn’t exactly know what was going on ... it is generating the kind of reasonable-sounding, well-formed, grammatical sentence that you might hear from a human. But it is false
作为世界上最权威的科技商业媒体之一,MIT Technology Review于1899年在美国麻省理工学院创刊,至今已经走过121年,为全世界超过300万专业人士及商业领袖提供前瞻性的资讯和独到深入的行业趋势分析。
In 2025, The American Sunlight Project, a non-profit, published a study[161] showing evidence that the so-called Pravda network, a pro-Russia propaganda aggregator, was strategically placing web content through mass publication and duplication with the intention of biasing LLM outputs. The American Sunlight Project coined this technique "LLM grooming", and pointed to it as a new tool of weaponizing AI to spread disinformation and harmful content
A large language model (LLM) is a language model trained with self-supervised machine learning on a vast amount of text, designed for natural language processing tasks, especially language generation. The largest and most capable LLMs are generative pretrained transformers (GPTs), which are largely used in generative chatbots such as ChatGPT...
“We need policy changes, not just tech breakthroughs, to meet our climate goals.”... the conflict between human interests ... at a point when the growth of that very technology is threatening to undermine the meager progress the world has begun to make on climate change ... one thing we can state confidently about generative AI is that it’s making the hardest problem we’ve ever had to solve that much harder to solve
OpenAI’s Sam Altman claims AI will deliver an "Intelligence Age," but tech breakthroughs alone can't solve global warming.