Google(GOOGL.US) 最新釋出的人工智慧(AI)模型 Gemini 2.5 Flash,在公司內部的安全基準測試中竟然退步,引發關注。根據 Google 近日公布的技術報告,該模型在「文字對文字安全性」與「圖像對文字安全性」兩項關鍵指標上,分別退步了 4.1% 與 9.6%,不如前代 Gemini 2.0 Flash。
根據《TechCrunch》報導,這些指標用來評估 AI 模型在回應文字或圖像提示時,違反 Google 安全準則的機率。這些測試由自動化系統執行,非人工審查。Google 發言人亦證實,Gemini 2.5 Flash 在這兩方面的表現「較差」。
Google 在報告中指出,部分退步來自誤判,但也承認在使用者明確要求下,模型可能生成「違規內容」。報告中坦言:「模型在敏感議題上的指令執行與安全政策之間,本就存在張力。」
名為 SpeechMap 的安全評估亦顯示,相較於先前版本,Gemini 2.5 Flash 更願意回答具爭議性的問題。《TechCrunch》測試發現,新模型會撰寫支持以 AI 取代法官、推行大規模政府監控等具爭議的內容。
安全 AI 計畫(Secure AI Project)共同創辦人 Thomas Woodside 指出,Google 在報告中提供的案例細節有限,無法讓獨立分析者全面評估模型風險。他強調:「在執行力與政策遵循之間存在矛盾,Google 應更加透明。」
這並非 Google 首次遭遇安全報告不透明的質疑。Gemini 2.5 Pro 技術報告過去也曾延遲數週才釋出,且初版缺乏關鍵測試數據。直到最近,Google 才補發更詳細的報告。
此現象反映出整個 AI 產業的趨勢轉變。目前,Meta(META.US) 也正調整 Llama 模型,讓其對政治議題回應更中立;OpenAI 則表示未來模型將不再採取特定立場,並能呈現多元觀點。
然而,寬容化策略也可能帶來反效果。《TechCrunch》揭露,OpenAI 的 ChatGPT 近期就允許未成年用戶生成色情內容,引發爭議。Google 也坦承,Gemini 2.5 Flash 在提升指令忠誠度的同時,亦可能違反既定準則,突顯 AI 模型安全性與使用自由之間的兩難。
(美股為即時串流報價; OTC市場股票除外,資料延遲最少15分鐘。)新聞來源 (不包括新聞圖片): 鉅亨網