
OpenAI 在一項新政策中表示,正在改變訓練人工智能模型的方式,以明確擁護 “知識自由…… 無論一個話題多么具有挑戰性或爭議性”。
因此,ChatGPT 最終將能夠回答更多問題,提供更多視角,并減少這款人工智能聊天機器人不愿談論的話題數量。
這些改變可能是 OpenAI 努力贏得特朗普新政府好感的一部分,同時似乎也是硅谷整體以及 “人工智能安全” 觀念更廣泛轉變的一部分。
周三,OpenAI 宣布對其《模型規范》進行更新,這份 187 頁的文件闡述了該公司如何訓練人工智能模型以規范其行為表現。在其中,OpenAI 公布了一項新的指導原則:不得說謊,無論是通過做出不實陳述,還是遺漏重要背景信息。
在一個名為 “共同探尋真相” 的新章節中,OpenAI 表示希望 ChatGPT 不采取帶有主觀評判的立場,即便有些用戶覺得這在道德上是錯誤的或令人反感的。這意味著 ChatGPT 將在有爭議的話題上提供多種觀點,力求做到中立。
例如,該公司表示 ChatGPT 應該既宣稱 “黑人的命也是命”,也提及 “所有人的命都是命”。OpenAI 稱,希望 ChatGPT 在面對政治問題時,不要拒絕回答或選邊站,而是先總體肯定其 “對人類的愛”,然后提供關于每項運動的背景信息。
OpenAI 在該規范中指出:“這一原則可能存在爭議,因為這意味著該助手可能在一些人認為在道德上錯誤或令人反感的話題上保持中立。然而,人工智能助手的目標是輔助人類,而非塑造人類。”
新的《模型規范》并不意味著 ChatGPT 現在可以完全不受限制。這款聊天機器人仍會拒絕回答某些令人反感的問題,也不會以支持公然虛假信息的方式作出回應。
這些改變可能被視為是對保守派關于 ChatGPT 保護機制批評的回應,其保護機制似乎一直偏向中左翼。然而,OpenAI 的一位發言人否認做出這些改變是為了討好特朗普政府。
相反,該公司表示,對知識自由的擁護反映了 OpenAI “長期以來賦予用戶更多控制權的信念”。
但并非所有人都認同這種觀點。

保守派指責人工智能存在審查行為
在過去幾個月里,特朗普在硅谷最親密的親信 —— 包括大衛?薩克斯、馬克?安德森和埃隆?馬斯克 —— 都指責 OpenAI 在人工智能方面存在蓄意審查行為。
當然,OpenAI 并不認同特朗普顧問所宣稱的 “審查” 一說。該公司首席執行官山姆?奧特曼此前在 X 平臺(原推特)上發文稱,ChatGPT 的偏向性是一個令人遺憾的 “缺陷”,公司正在努力解決,不過他也指出這需要一些時間。
奧特曼發表上述評論之前,一條引發廣泛傳播的推文顯示,ChatGPT 拒絕創作一首贊美特朗普的詩歌,但卻愿意為喬?拜登創作。許多保守派以此為例,指責存在人工智能審查現象。
雖然無法斷言 OpenAI 是否真的在壓制某些觀點,但人工智能聊天機器人普遍偏左卻是不爭的事實。
就連埃隆?馬斯克也承認,xAI 的聊天機器人在政治正確性上往往超出他的預期。這并非因為 Grok “被編程為迎合特定思潮”,更可能是因為在開放網絡上訓練人工智能所導致的必然結果。
盡管如此,OpenAI 如今表示要大力支持言論自由。本周,該公司甚至刪除了 ChatGPT 中用于告知用戶違反其政策的提示。OpenAI 向媒體表示,這純粹是表面上的改動,模型的輸出內容并無變化。
該公司似乎希望用戶感覺 ChatGPT 受到的審查更少。
前 OpenAI 政策負責人邁爾斯?布倫戴奇在 X 平臺上發文指出,如果 OpenAI 試圖通過此次政策更新給特朗普新政府留下好印象,這并不奇怪。
特朗普此前曾針對推特(Twitter)和元(Meta)等硅谷公司,指責其活躍的內容審核團隊往往將保守派聲音拒之門外。
OpenAI 可能試圖先發制人。但在硅谷和人工智能領域,關于內容審核的作用,正發生著更廣泛的轉變。
生成令各方滿意的答案

手機屏幕上出現 ChatGPT 的標志 一直以來,新聞機構、社交媒體平臺以及搜索公司都在努力,試圖以一種客觀、準確且有趣的方式向受眾傳遞信息。
如今,人工智能聊天機器人供應商也從事信息傳遞業務,但其面臨的問題或許是最棘手的:如何自動生成任何問題的答案?
傳遞有關爭議性實時事件的信息猶如移動靶,這必然涉及采取某種編輯立場,即便科技公司不愿承認這一點。這些立場難免會惹惱某些人,忽略某些群體的觀點,或者對某個政黨給予過多關注。
例如,當 OpenAI 致力于讓 ChatGPT 呈現爭議性話題的所有觀點時 —— 包括陰謀論、種族主義或反猶主義運動,又或是地緣政治沖突 —— 這本質上就是一種編輯立場。
包括 OpenAI 聯合創始人約翰?舒爾曼在內的一些人認為,這對 ChatGPT 而言是正確的立場。舒爾曼在 X 平臺上發文指出,另一種做法 —— 通過成本效益分析來決定人工智能聊天機器人是否應該回答用戶的問題 —— 可能 “賦予平臺過多的道德權威”。
并非只有舒爾曼持此觀點。喬治梅森大學莫卡特斯中心的研究員迪恩?鮑爾在接受采訪時表示:“我認為 OpenAI 朝著鼓勵更多言論的方向努力是正確的。隨著人工智能模型變得更加智能,且對人們認識世界的方式愈發重要,這些決策也就變得更加關鍵。”
前些年,人工智能模型供應商曾試圖阻止其聊天機器人回答可能導致 “不安全” 答案的問題。幾乎每家人工智能公司都不讓自家的聊天機器人回答有關 2024 年美國總統大選的問題。當時,這被普遍認為是一個穩妥且負責任的決定。
但 OpenAI 對其《模型規范》的修改表明,我們或許正在邁入 “人工智能安全” 真正含義的新時代。在這個時代,讓人工智能模型回答任何問題,被視為比替用戶做決策更負責任。
鮑爾表示,部分原因在于如今的人工智能模型性能更優。OpenAI 在人工智能模型校準方面取得了顯著進展;其最新的推理模型在回答問題前會考慮公司的人工智能安全政策。這使得人工智能模型能夠更好地回答敏感問題。
當然,埃隆?馬斯克率先在 xAI 的 Grok 聊天機器人中踐行 “言論自由”,或許當時該公司尚未真正準備好應對敏感問題。對于領先的人工智能模型而言,這或許為時過早,但現在,其他公司也開始接納同樣的理念。
硅谷價值觀的轉變

上個月,馬克?扎克伯格將 Meta 的業務方向調整為圍繞美國憲法第一修正案原則,這一舉動引起了軒然大波。在此過程中,他稱贊了埃隆?馬斯克,稱 X 平臺(原推特)的老板通過采用 “社區注釋”(一項由社區驅動的內容審核計劃)來維護言論自由,采取了正確的做法。
實際上,X 平臺和 Meta 最終都解散了其長期存在的信任與安全團隊,這使得更多有爭議的帖子出現在它們的平臺上,并放大了保守派的聲音。
X 平臺的這些改變可能損害了它與廣告商的關系,但這可能更多與馬斯克有關,他采取了非同尋常的舉措,起訴一些抵制該平臺的廣告商。早期跡象表明,Meta 的廣告商并未因扎克伯格轉向支持言論自由的舉措而感到不安。
與此同時,除了 X 平臺和 Meta 之外,許多科技公司也在摒棄過去幾十年主導硅谷的左傾政策。去年,谷歌、亞馬遜和英特爾已經取消或縮減了多元化相關舉措。
OpenAI 可能也在改變方向。這家 ChatGPT 的開發商似乎最近從其網站上刪除了對多元化、公平和包容的承諾。
隨著 OpenAI 與 “星際之門”(一個價值 5000 億美元的人工智能數據中心項目,堪稱美國有史以來最大的基礎設施項目之一)展開合作,它與特朗普政府的關系變得愈發重要。與此同時,這家 ChatGPT 的開發商正試圖取代谷歌搜索,成為互聯網上占主導地位的信息來源。
事實可能證明,給出恰當的答案對這兩個目標都至關重要。

責任編輯:丁文武
VIP課程推薦
APP專享直播
熱門推薦
收起
24小時滾動播報最新的財經資訊和視頻,更多粉絲福利掃描二維碼關注(sinafinance)