本文概要:
1. 研究人員發(fā)現(xiàn) AI 語(yǔ)言模型中存在政治偏見。
2.ChatGPT 和 GPT-4被認(rèn)為是最左翼自由主義的模型,而 meta 的 LLaMA 被認(rèn)為是最右翼獨(dú)裁主義的模型。
3. 研究人員敦促企業(yè)認(rèn)識(shí)到人工智能模型的偏見,并努力使其產(chǎn)品更加公平。
極客號(hào)(Daydx.com)8月15日 消息:最近一項(xiàng)來自華盛頓大學(xué)、卡內(nèi)基梅隆大學(xué)和西安交通大學(xué)的研究發(fā)現(xiàn),AI 語(yǔ)言模型存在政治偏見。
研究人員測(cè)試了14個(gè)模型,并使用政治指南針測(cè)試來確定模型的政治傾向。
結(jié)果顯示,OpenAI 的 ChatGPT 和 GPT-4被認(rèn)為是最左翼自由主義的模型,而 meta 的 LLaMA 被認(rèn)為是最右翼獨(dú)裁主義的模型。
研究人員指出,盡管政治指南針測(cè)試不是一個(gè)完美的方法,但它有助于揭示模型的偏見。他們敦促企業(yè)意識(shí)到這些偏見,并努力使其產(chǎn)品更加公平。
這項(xiàng)研究的結(jié)果提醒大家,在開發(fā)和使用 AI 語(yǔ)言模型時(shí)要警惕政治偏見的存在,并確保公正和多樣化的表達(dá)。