中文字幕 另类精品,亚洲欧美一区二区蜜桃,日本在线精品视频免费,孩交精品乱子片免费

<sup id="3hn2b"></sup>

    1. <sub id="3hn2b"><ol id="3hn2b"></ol></sub><legend id="3hn2b"></legend>

      1. <xmp id="3hn2b"></xmp>

      2. "); //-->

        博客專欄

        EEPW首頁 > 博客 > ChatGPT 太猖狂?OpenAI 欲打假并研發(fā)“文本水印”,網(wǎng)友吐槽:太“雞肋”!

        ChatGPT 太猖狂?OpenAI 欲打假并研發(fā)“文本水印”,網(wǎng)友吐槽:太“雞肋”!

        發(fā)布人:AI科技大本營 時(shí)間:2022-12-23 來源:工程師 發(fā)布文章
        整理 | 蘇宓

        出品 | CSDN(ID:CSDNnews)

        這到底是人干的,還是 AI 干的?

        隨著 AIGC 的爆火,在 ChatGPT、Stable Diffusion 模型的推動(dòng)下,當(dāng)下想要辨別我們所見的代碼、圖像、文章、小說、腳本、詩句、Debug 程序等內(nèi)容究竟是「真」還是「假」時(shí),那可太難了。

        只要其背后的“主謀”不外揚(yáng),外人也幾乎看不出來作品究竟是出自誰手。然而,往往越是這樣,就越容易造成學(xué)術(shù)造假、藝術(shù)界的混亂、版權(quán)的爭(zhēng)議等多種亂象。

        為了減少這種情況的出現(xiàn),ChatGPT 的創(chuàng)建者 OpenAI 終究還是準(zhǔn)備站出來填坑了。計(jì)算機(jī)科學(xué)教授 Scott Aaronson (目前是 OpenAI 的客座研究員)在德克薩斯大學(xué)奧斯汀分校的一次演講中透露,OpenAI 正在開發(fā)一種工具,用于對(duì) AI 系統(tǒng)生成的內(nèi)容加個(gè)水印。每當(dāng)系統(tǒng)(如 ChatGPT)生成文本時(shí),該工具就會(huì)嵌入一個(gè)“不易察覺的水印”,以此顯示文本的來源。

        圖片


        圖片

        人工智能需要束縛


        事實(shí)證明,要控制像 ChatGPT 這樣的系統(tǒng)是很困難的。作為開發(fā)商,雖然 OpenAI 在 ChatGPT 政策規(guī)定寫道,當(dāng)從其系統(tǒng)共享內(nèi)容時(shí),用戶應(yīng)明確表明它是由人工智能生成的,但現(xiàn)實(shí)使用過程中,OpenAI 可以控制 ChatGPT 不生成暴力、血腥有害的內(nèi)容,但是卻無法掌控它的使用者會(huì)將其應(yīng)用到何處。

        幾天前,知名編程問答網(wǎng)站 Stack Overflow 決定“封殺” ChatGPT,稱 ChatGPT 答案的正確率非常低,對(duì)整個(gè)網(wǎng)站以及尋求正確答案的用戶來說是有害的。例如,要求 ChatGPT 寫一個(gè)公眾人物的傳記,它可能會(huì)很自信地插入不正確的傳記數(shù)據(jù)。再比如要求它解釋如何為特定功能編寫軟件程序,它同樣可以生成可信但最終不正確的代碼。如果用戶被發(fā)現(xiàn)使用 ChatGPT 回答問題,他們可能會(huì)受到禁止繼續(xù)發(fā)帖的懲罰。

        除此之外,與之前的許多文本生成系統(tǒng)一樣,ChatGPT 也會(huì)被用于編寫高質(zhì)量的網(wǎng)絡(luò)釣魚郵件和有害的惡意軟件,甚至?xí)挥糜诳荚囎鞅椎鹊取?/span>

        因此,但凡 ChatGPT 所到之處,便亟這樣一款工具進(jìn)行束縛。


        圖片

        加水印的工作原理


        過去,OpenAI 已經(jīng)有一種方法可以標(biāo)記 DALL-E 生成的內(nèi)容 ,并在它生成的每個(gè)圖像中嵌入簽名。但是如今想要追蹤文本的來源,實(shí)則要困難得多。

        那如何在文字上面加上追蹤或打上“水印”?

        Scott Aaronson 教授認(rèn)為,最有前途的方法是密碼學(xué)。

        Scott Aaronson 表示,他在今年春天的學(xué)術(shù)休假期間,一直在 OpenAI 研究為 GPT 等文本模型的輸出內(nèi)容添加水印的工具。

        對(duì)于“AI 水印”的設(shè)想,Scott Aaronson 在自己的博客中進(jìn)行了詳解。其表示,“我們希望每當(dāng) GPT 生成一些長(zhǎng)文本時(shí),能夠在它的選詞上有一個(gè)不易察覺的秘密標(biāo)記,你可以用它來證明,這是來自 GPT 生成的內(nèi)容。

        那么這種水印到底是如何實(shí)現(xiàn)的?

        Scott Aaronson 教授稱,對(duì)于 GPT 來說,每一個(gè)輸入和輸出都是一串 token(標(biāo)記),可以是單詞,也可以是標(biāo)點(diǎn)符號(hào)、單詞的一部分,或者更多--總共有大約 10 萬個(gè) token。GPT 的核心是以先前 token 的字符串為條件,不斷地生成下一個(gè)要生成的 token 的概率分布。在神經(jīng)網(wǎng)絡(luò)生成分布后,OpenAI 服務(wù)器實(shí)際上會(huì)根據(jù)該分布或該分布的某些修改版本進(jìn)行采樣,這取決于一個(gè)名為 "temperature"的參數(shù)。不過,只要 temperature 參數(shù)不為零,下一個(gè) token 的選擇通常會(huì)有一些隨機(jī)性,這也是為什么你對(duì) GPT 用同一段話提問,會(huì)得到不同的答案的主要原因。

        OpenAI 的水印工具就像現(xiàn)有文本生成系統(tǒng)的一個(gè) "包裝",利用在服務(wù)器層面運(yùn)行的加密功能,"偽隨機(jī) "地選擇下一個(gè)標(biāo)記」,Scott Aaronson 說道。

        從理論上,這個(gè)系統(tǒng)生成的文本對(duì)大家而言都是隨機(jī)的,但是任何擁有加密功能“鑰匙”的人能夠發(fā)現(xiàn)水印。

        也許有人會(huì)好奇:如果 OpenAI 控制了服務(wù)器,那么為什么要費(fèi)盡心思去做水?。繛槭裁床恢苯訉?GPT 的所有輸出存儲(chǔ)在一個(gè)巨大的數(shù)據(jù)庫中,然后如果大家想知道某些東西是否來自 GPT,就可以查閱該數(shù)據(jù)庫?

        Scott Aaronson 贊同地說道,這樣的確可以做到的,甚至可能在涉及執(zhí)法或其他方面的高風(fēng)險(xiǎn)案件中必須這樣做。但這將引起一些嚴(yán)重的隱私問題,譬如你可以揭示 GPT 是否生成或未生成給定的候選文本,而不可能揭示其他人是如何使用 GPT 的?數(shù)據(jù)庫方法在區(qū)分 GPT 唯一生成的文本和僅僅因?yàn)樗哂泻芨吒怕识傻奈谋荆ɡ?,前一百個(gè)素?cái)?shù)的列表)方面也存在困難。

        當(dāng)前,來自 OpenAI 工程師 Hendrik Kirchner 已經(jīng)構(gòu)建了一個(gè)工作原型,并希望將其構(gòu)建到未來 OpenAI 開發(fā)的系統(tǒng)中。

        截至目前,據(jù)外媒 Techcrunch 報(bào)道,OpenAI 和 Aaronson 并未透露過多關(guān)于“水印原型”的信息,只是稱水印是他們正在探索的幾種 "注明出處技術(shù) "之一,以檢測(cè)人工智能產(chǎn)生的產(chǎn)出。


        圖片

        “水印”功能很“雞肋”?


        不過對(duì)于這種技術(shù),業(yè)界也頗有爭(zhēng)議。

        有人認(rèn)為,該工具是基于服務(wù)器端的,這意味著它不一定適用于所有文本生成系統(tǒng)。他們認(rèn)為,對(duì)于競(jìng)爭(zhēng)對(duì)手來說,繞過它是微不足道的。

        來自麻省理工學(xué)院的計(jì)算機(jī)科學(xué)教授 Srini Devadas 認(rèn)為:"通過重新措辭、使用同義詞等來繞過它的篩查是相當(dāng)容易的。"

        OpenAI 的競(jìng)爭(zhēng)對(duì)手 AI21 實(shí)驗(yàn)室的聯(lián)合創(chuàng)始人兼聯(lián)合首席執(zhí)行官 Yoav Shoham 認(rèn)為,水印并不足以幫助識(shí)別 AI 生成文本的來源。他呼吁采用一種 "更全面 "的方法,包括差異化水印,即對(duì)文本的不同部分進(jìn)行不同的水印,以及更準(zhǔn)確地引用事實(shí)文本來源的 AI 系統(tǒng)。

        艾倫人工智能研究所的研究科學(xué)家 Jack Hessel 指出,很難在不知不覺中對(duì)人工智能生成的文本進(jìn)行加注“水印”,因?yàn)槊總€(gè) token 都是一個(gè)離散的選擇。太明顯的“水印”可能會(huì)導(dǎo)致選擇奇怪的詞,從而降低流暢性。不過,一個(gè)理想的“水印”是人類讀者無法辨別的,并能實(shí)現(xiàn)高度檢測(cè)。根據(jù)它的設(shè)置方式,由于“簽名”過程的運(yùn)作方式,OpenAI 自己可能是唯一能夠自信地提供這種檢測(cè)的一方。

        Scott Aaronson 也表示,該計(jì)劃只有在像 OpenAI 這樣的公司在擴(kuò)展最先進(jìn)系統(tǒng)方面處于領(lǐng)先地位的世界中才會(huì)真正起作用——而且他們都同意成為負(fù)責(zé)任的參與者。即使 OpenAI 與其他文本生成系統(tǒng)提供商(如 Cohere 和 AI21Labs)共享水印工具,也不會(huì)阻止其他人選擇不使用它。

        雖然 OpenAI 帶來了 ChatGPT、GPT-3、Dell-2 這些極具創(chuàng)新性的產(chǎn)品,引發(fā)用戶的狂歡,但不少網(wǎng)友仍質(zhì)疑“AI 水印”的必要性:

        @knaik94:

        這似乎是在浪費(fèi)能源。倘若一次生成的文本內(nèi)容很短,根本無法判斷它是否是由 AI 生成的。此外,我想在生成的內(nèi)容中再多走一步,如改寫某些內(nèi)容、使用同義詞和短語替換、統(tǒng)一標(biāo)點(diǎn)符號(hào)或者一些輔助語法檢查/修飾符等工具,都可以逃避“AI 水印”的檢測(cè)。

        況且行業(yè)也有一些開放性的替代方案,如 GPT2,已經(jīng)在 MIT 許可下發(fā)布。在 NSFW 文本上訓(xùn)練的社區(qū)語言模型也已經(jīng)存在。在我看來,OpenAI 這樣的舉動(dòng)從長(zhǎng)遠(yuǎn)來看只會(huì)把大多數(shù)人趕走。如果在未經(jīng)審查的足夠好模型和經(jīng)過審查的優(yōu)秀模型之間進(jìn)行選擇,我會(huì)為 99% 的長(zhǎng)期項(xiàng)目選擇足夠好的模型。

        @norwalkbear :

        現(xiàn)在很多人看到了人工智能的潛力。如果你限制太多,人們會(huì)開發(fā)自己的 AI 模型,甚至迫切需要 OpenAI 的開源替代品。

        最后,看到 OpenAI 正在研發(fā)這樣的工具,也有網(wǎng)友強(qiáng)烈呼吁 OpenAI 遲幾年推出,譬如等到 2026 年 5 月,因?yàn)檫@個(gè)時(shí)候,他剛好畢業(yè)了。

        你覺得給 AI 生成的內(nèi)容、作品加上水印能阻止濫用情況的發(fā)生嗎?

        參考資料:

        https://news.ycombinator.com/item?id=33892587

        https://techcrunch.com/2022/12/10/openais-attempts-to-watermark-ai-text-hit-limits/

        https://scottaaronson.blog/?p=6823


        *博客內(nèi)容為網(wǎng)友個(gè)人發(fā)布,僅代表博主個(gè)人觀點(diǎn),如有侵權(quán)請(qǐng)聯(lián)系工作人員刪除。

        電容式觸摸屏相關(guān)文章:電容式觸摸屏原理
        電容屏相關(guān)文章:電容屏原理


        關(guān)鍵詞: AI

        相關(guān)推薦

        技術(shù)專區(qū)

        關(guān)閉