• <rt id="2wkqu"><small id="2wkqu"></small></rt>
  • 您的位置:首頁 > 趣聞 > 正文

    OpenAI高層提議設(shè)立參考IAEA模式設(shè)立AI國際監(jiān)管機構(gòu)

    人工智能的發(fā)展足夠迅速,它可能帶來的危險也足夠明顯,以至于OpenAI的領(lǐng)導(dǎo)層認(rèn)為,世界需要一個類似于管理核能的國際監(jiān)管機構(gòu)--而且要快,但不要太快。在公司博客的一篇文章中,OpenAI的創(chuàng)始人Sam Altman、總裁Greg Brockman和首席科學(xué)家Ilya Sutskever解釋說,人工智能的創(chuàng)新速度如此之快,以至于我們不能指望現(xiàn)有的機構(gòu)能夠充分地控制這項技術(shù)。

    雖然這里有某種拍馬屁的質(zhì),但任何公正的觀察者都清楚,這項技術(shù),最明顯的是OpenAI的爆炸流行的ChatGPT對話機器人,代表了一種獨特的威脅,也是一種寶貴的資產(chǎn)。

    文章在細節(jié)和承諾方面比較輕描淡寫,但也承認(rèn)人工智能不會自己管理自己:

    我們需要在領(lǐng)先的開發(fā)工作中進行某種程度的協(xié)調(diào),以確保超級智能的發(fā)展以一種既能讓我們保持安全又能幫助這些系統(tǒng)與社會順利整合的方式進行。

    我們最終可能需要一個類似于[國際原子能機構(gòu)]的機構(gòu)來開展超級智能工作;任何超過一定能力(或計算等資源)門檻的努力都需要接受國際權(quán)威機構(gòu)的檢查,要求進行審計,測試是否符合安全標(biāo)準(zhǔn),對部署程度和安全級別進行限制,等等。

    IAEA是聯(lián)合國在核電問題上進行國際合作的官方機構(gòu),就像核不擴散監(jiān)管一樣,建立在這種模式上的人工智能管理機構(gòu)可能無法進入并打開不良行為者的開關(guān),但它可以建立并跟蹤國際標(biāo)準(zhǔn)和協(xié)議,這至少是一個起點。

    OpenAI的帖子指出,跟蹤用于人工智能研究的計算能力和能源使用情況是相對較少的客觀措施之一,可以而且可能應(yīng)該被報告和跟蹤。雖然可能很難說人工智能應(yīng)該或不應(yīng)該被用于哪些領(lǐng)域,但說用于人工智能的資源應(yīng)該像其他行業(yè)一樣受到監(jiān)督和審計可能是有價值的。(該公司也建議較小的AI公司可以豁免監(jiān)管,以避免扼殺創(chuàng)新的綠芽)。

    領(lǐng)先的人工智能研究員和評論家Timnit Gebru今天在接受《衛(wèi)報》采訪時說了類似的話:"除非有外部壓力要求做一些不同的事情,否則公司是不會自我監(jiān)管的。我們需要監(jiān)管,我們需要比單純的利潤動機更好的模式。"

    OpenAI明顯接受了后者,這讓許多希望它名副其實的人感到驚愕,但至少作為市場領(lǐng)導(dǎo)者,它也在呼吁在治理方面采取真正的行動--除了最的聽證會,參議員們排隊發(fā)表連任演講,文稿大多以問句結(jié)束。

    雖然該建議相當(dāng)于"也許我們應(yīng)該,比如,做一些事情",但它至少是行業(yè)內(nèi)的一個對話啟動器,表明世界上最大的單一人工智能品牌和供應(yīng)商支持做一些事情。迫切需要公共監(jiān)督,但"我們還不知道如何設(shè)計這樣一個機制"。

    雖然該公司的領(lǐng)導(dǎo)人說他們支持踩剎車,但現(xiàn)在還沒有計劃這樣做,因為他們不想放棄"改善我們的社會"(更不用說底線)的巨大潛力,也因為有一種風(fēng)險,即壞的行為者已經(jīng)把他們的腳放在油門上。

    久久激情五月网站,一本色道综合亚洲精品精品,午夜电影久久久久久,中文无码AV片在线 成a在线观看视频播放 婷婷色中文在线观看
  • <rt id="2wkqu"><small id="2wkqu"></small></rt>