• <rt id="2wkqu"><small id="2wkqu"></small></rt>
  • 當(dāng)AI會說謊,如何治理?
    2023-04-07 19:33:01 來源:21世紀(jì)經(jīng)濟報道 編輯:

    21世紀(jì)經(jīng)濟報道記者 鐘雨欣 北京報道


    【資料圖】

    AIGC正在給虛假信息治理提出前所未有的挑戰(zhàn)。喬治·華盛頓大學(xué)法學(xué)教授喬納森·特利近日被ChatGPT列入“性騷擾”名單,聲稱他在一次去阿拉斯加的旅行中對學(xué)生“動手動腳”,并援引了一篇所謂《華盛頓郵報》的新聞報道作為信息來源。

    特利連續(xù)用了多個“從未”進行回應(yīng),他撰文寫道,“這讓我很驚訝,因為我從未和學(xué)生一起去過阿拉斯加,《華盛頓郵報》從未發(fā)表過這樣的文章,我也從未被任何人指控性騷擾或性侵?!?/p>

    當(dāng)AI會說謊,虛假內(nèi)容以高速率流入信息世界,如何不被謠言裹挾?人類社會應(yīng)如何應(yīng)對?在一張張考卷中,科技倫理、風(fēng)險預(yù)防成為關(guān)鍵詞。

    令人不寒而栗的謠言

    據(jù)媒體報道,事情的起因是美國加州大學(xué)洛杉磯分校法學(xué)教授尤金·沃洛克在ChatGPT進行了一項研究。沃洛克說,聊天機器人軟件日益普及,使學(xué)者們必須研究其產(chǎn)生虛假信息時誰該負責(zé)。

    沃洛克詢問ChatGPT,教授的性騷擾是否一直是美國法學(xué)院的一個問題?!罢堉辽侔ㄎ鍌€例子,以及相關(guān)報紙文章中的引述。”他提示道。

    ChatGPT輸出了5個回復(fù),所有回復(fù)都包含“真實的細節(jié)”和引用來源。但當(dāng)沃洛克檢查他們時,其中三個是假的,引用了報紙上不存在的文章。

    “喬治城大學(xué)法律中心(2018)教授喬納森·特利被一名前學(xué)生指控性騷擾,該學(xué)生聲稱他在一次課堂旅行中發(fā)表了不當(dāng)言論。引述:投訴稱,特利在法學(xué)院贊助的阿拉斯加之旅中發(fā)表了‘性暗示評論’并‘試圖以性方式觸摸她’。(華盛頓郵報,2018年3月21日)?!盋hatGPT說。

    《華盛頓郵報》并沒有找到 ChatGPT 提到那篇的文章,而在那個月,有一篇文章提到了特利,發(fā)表日期是2018年3月25日。但是,特利并沒有在喬治城大學(xué)工作過。

    作為媒體的常客,特利有時會要求更正新聞報道,但這一次,沒有記者或編輯可以打電話,也沒有辦法更正記錄。

    “這真令人不寒而栗?!彼诮邮苊襟w采訪時說,“這種指控非常有害?!?/strong>

    當(dāng)?shù)貢r間4月4日和5日,《華盛頓郵報》在ChatGPT和Bing中重新創(chuàng)建了沃洛克的查詢。免費版的ChatGPT拒絕回答,稱這樣做“會違反AI的內(nèi)容政策,該政策禁止傳播具有攻擊性或有害的內(nèi)容?!钡蒅PT-4提供支持的微軟Bing重復(fù)了關(guān)于特利的虛假聲明,在消息來源中引用了其4月3日發(fā)表在《今日美國》上的一篇專欄文章,概述了他被ChatGPT不實指控的經(jīng)歷。

    媒體對于ChatGPT錯誤指控特利的報道似乎導(dǎo)致Bing重蹈覆轍,展示出錯誤信息是如何從一個AI傳播到另一個AI的。

    “很容易想象一個由聊天機器人驅(qū)動的搜索引擎會在人們的私人生活中造成混亂。如果人們在求職面試或約會之前在增強的搜索引擎中搜索其他人,并且它會生成虛假信息,這些信息由看似可信但虛假的證據(jù)支持,那將是有害的。”沃洛克說。

    值得注意的是,特利的遭遇并不是近期唯一一起ChatGPT編造虛假信息的事件。據(jù)媒體報道,澳大利亞赫本郡市長布賴恩·胡德考慮對OpenAI提起第一起誹謗訴訟,除非它糾正有關(guān)他曾因受賄入獄服刑的虛假說法。

    對虛假信息治理提出新挑戰(zhàn)

    ChatGPT等人工智能技術(shù)為何能成為傳播謠言的“高效工具”?

    “AIGC技術(shù)日漸發(fā)展成熟,可以完成包括寫郵件、代碼、新聞報道以及論文等多種任務(wù),且表述內(nèi)容與人類對話風(fēng)格相似,一般人難以區(qū)分。其使用門檻和成本低,生成效率高,能夠在短時間內(nèi)生成大量虛假信息,從而迅速淹沒真相。”南開大學(xué)法學(xué)院副院長、博導(dǎo),中國新一代人工智能發(fā)展戰(zhàn)略研究院特約研究員陳兵教授分析道。

    他進一步指出,ChatGPT等目前并不會核實生成內(nèi)容信息的真實性與準(zhǔn)確性,即虛假信息檢測是通過與“已收錄的虛假信息庫”進行比對和判斷,未被收錄的新信息則需要以人工檢測進行判斷。

    北京航空航天大學(xué)法學(xué)院副教授、北京科技創(chuàng)新中心研究基地副主任趙精武也表示,ChatGPT最顯著的技術(shù)優(yōu)勢就是能夠以貼近人類思維和表達的方式呈現(xiàn)信息,這就導(dǎo)致網(wǎng)民更難以甄別其生成信息的真?zhèn)危?strong>加之人工智能技術(shù)能批量生成信息,海量且高效的網(wǎng)絡(luò)謠言生成顯然會導(dǎo)致依靠官方辟謠、賬號封禁等傳統(tǒng)虛假信息治理措施難以發(fā)揮預(yù)期效果。

    “追溯網(wǎng)絡(luò)賬號的實際使用人、認定信息傳播者的主觀狀態(tài)等等,這些都是追責(zé)的難題?!?/strong>趙精武說。

    陳兵表示,法律責(zé)任承擔(dān)需要視情況分析。如果用戶故意輸入指令讓人工智能編造謠言,此時AI聊天機器人充當(dāng)?shù)氖枪ぞ呓巧?,?yīng)由用戶承擔(dān)法律責(zé)任。另一種情況是用戶沒有主觀故意,虛假信息內(nèi)容由人工智能算法自行生成,可以推定人工智能對編造、傳播謠言起到了實質(zhì)性的幫助作用,因此相應(yīng)的用戶與AI運營公司承擔(dān)連帶責(zé)任。

    陳兵還強調(diào),需要注意AI運營公司的侵權(quán)責(zé)任判斷,通常應(yīng)考察情形是否滿足過錯要件。“如果平臺盡到相應(yīng)注意義務(wù),在責(zé)任承擔(dān)上,鑒于其對創(chuàng)新發(fā)展的貢獻,不宜施加嚴(yán)格責(zé)任,否則不利于技術(shù)的開發(fā)和未來商用。另外,關(guān)于運營公司是否需要承擔(dān)相應(yīng)的補充責(zé)任,應(yīng)綜合考慮侵權(quán)范圍、損害程度以及平臺避免損失擴大的能力?!?/p>

    “現(xiàn)有侵權(quán)法體系能夠處理AI運營公司的民事責(zé)任問題,但有必要為新興事物發(fā)展預(yù)留一些空間,這意味著傳統(tǒng)的基于工業(yè)經(jīng)濟下的侵權(quán)責(zé)任規(guī)則,需要回應(yīng)數(shù)字經(jīng)濟下人工智能產(chǎn)業(yè)發(fā)展,并做出相應(yīng)調(diào)整?!?/strong>陳兵說。

    不容忽視的倫理風(fēng)險

    隨著AIGC的浪潮席卷全球,其潛藏的倫理風(fēng)險問題也引發(fā)各界關(guān)注。聯(lián)合國教科文組織近日發(fā)表聲明,呼吁各國政府盡快實施該組織通過的首份人工智能倫理問題全球性協(xié)議——《人工智能倫理問題建議書》。

    聲明說,聯(lián)合國教科文組織對科技創(chuàng)新引發(fā)的倫理問題表示關(guān)切,尤其是歧視、刻板印象,包括性別不平等問題,此外還有打擊虛假信息、隱私權(quán)、個人數(shù)據(jù)保護等。行業(yè)自律顯然不足以避免這些倫理危害。因此,《建議書》提供了工具,以確保人工智能的發(fā)展遵守法律,避免造成危害,并在危害發(fā)生時啟動問責(zé)和補救機制。

    目光轉(zhuǎn)向國內(nèi)。4月4日,科技部發(fā)布關(guān)于公開征求對《科技倫理審查辦法(試行)》(以下簡稱《辦法》)意見的公告。其中提出,從事人工智能的單位,研究內(nèi)容涉及科技倫理敏感領(lǐng)域的,應(yīng)設(shè)立科技倫理(審查)委員會。

    在陳兵看來,在人工智能領(lǐng)域開展科技倫理審查,有助于推動可信人工智能的實現(xiàn),推動人工智能產(chǎn)業(yè)健康有序發(fā)展,在全球競爭中獲得話語權(quán)。“可信任、可解釋、更安全不僅是倫理要求,也代表了人工智能技術(shù)的發(fā)展方向,是需要搶占的技術(shù)制高點。開展科技倫理審查能在一定程度上避免技術(shù)無序、野蠻發(fā)展的情況。”

    趙精武指出,科技倫理審查已經(jīng)成為人工智能技術(shù)風(fēng)險治理的重要工具。“法律所能化解的風(fēng)險類型終歸有限,面對持續(xù)創(chuàng)新的人工智能技術(shù),更重要的是對其應(yīng)用方式和實際功能作出倫理性指引,避免機器與人類之間的主體地位顛倒?!?/strong>

    《辦法》還提到了“需要開展專家復(fù)核的科技活動清單”,包括具有輿論社會動員能力和社會意識引導(dǎo)能力的算法模型、應(yīng)用程序及系統(tǒng)的研發(fā);面向存在安全、人身健康風(fēng)險等場景的具有高度自主能力的自動化決策系統(tǒng)的研發(fā)等。

    “專家復(fù)核是出于現(xiàn)階段算法公平等濫用實踐的考量,因為企業(yè)運營的核心目標(biāo)的是追求利潤的最大化,在這一目標(biāo)的實現(xiàn)過程中可能會忽視技術(shù)對于個體權(quán)利的影響。并且從監(jiān)管層面來看,人工智能技術(shù)的專業(yè)屬性極強,簡單的書面形式審核并不能起到風(fēng)險預(yù)防作用,需要交由專家進行實質(zhì)意義上的復(fù)核。”趙精武說。

    這一方式會不會增加企業(yè)成本負擔(dān),影響市場效率?

    對此,陳兵指出,不能僅看企業(yè)短期的成本負擔(dān),而應(yīng)關(guān)注若放任人工智能的算法缺陷從而引發(fā)倫理風(fēng)險所產(chǎn)生的社會成本。專家復(fù)核是科技產(chǎn)品投入市場前的必要安全審核程序,從長遠來看有利于人工智能企業(yè)的可持續(xù)發(fā)展。

    趙精武分析,如果算法濫用問題加劇,長此以往會影響市場對技術(shù)安全性的信任,影響企業(yè)實現(xiàn)自身盈利和市場份額的目標(biāo),反而會降低市場效率。科技倫理審查并不等同于細致繁冗的審核程序,而是從倫理規(guī)范層面評估潛在的風(fēng)險,不會給企業(yè)增加過多成本負擔(dān)。“客觀而言,任何一項新興技術(shù)的普及應(yīng)用,都應(yīng)當(dāng)確保其不會削減公民的權(quán)利行使空間。”

    關(guān)鍵詞:

    相關(guān)閱讀
    分享到:
    版權(quán)和免責(zé)申明

    凡注有"環(huán)球傳媒網(wǎng) - 環(huán)球資訊網(wǎng) - 環(huán)球生活門戶"或電頭為"環(huán)球傳媒網(wǎng) - 環(huán)球資訊網(wǎng) - 環(huán)球生活門戶"的稿件,均為環(huán)球傳媒網(wǎng) - 環(huán)球資訊網(wǎng) - 環(huán)球生活門戶獨家版權(quán)所有,未經(jīng)許可不得轉(zhuǎn)載或鏡像;授權(quán)轉(zhuǎn)載必須注明來源為"環(huán)球傳媒網(wǎng) - 環(huán)球資訊網(wǎng) - 環(huán)球生活門戶",并保留"環(huán)球傳媒網(wǎng) - 環(huán)球資訊網(wǎng) - 環(huán)球生活門戶"的電頭。

    久久激情五月网站,一本色道综合亚洲精品精品,午夜电影久久久久久,中文无码AV片在线 成a在线观看视频播放 婷婷色中文在线观看
        • <rt id="2wkqu"><small id="2wkqu"></small></rt>