歡迎來(lái)到合肥浪訊網(wǎng)絡(luò)科技有限公司官網(wǎng)
  咨詢服務(wù)熱線:400-099-8848

ChatGPT等AI生成的內(nèi)容存在常識(shí)、推理等錯(cuò)誤,仍然能夠判別出來(lái)

發(fā)布時(shí)間:2023-03-19 文章來(lái)源:本站  瀏覽次數(shù):2088

3 月 18 日音訊,在今年 2 月召開(kāi)的人工智能促進(jìn)協(xié)會(huì)會(huì)議上,一項(xiàng)新研討結(jié)果標(biāo)明,能夠判別內(nèi)容是由 ChatGPT 生成的還是人類(lèi)撰寫(xiě)的。


美國(guó)賓夕法尼亞大學(xué)工程與應(yīng)用科學(xué)學(xué)院的一支科研團(tuán)隊(duì)日前展開(kāi)有史以來(lái)大范圍的人工智能檢測(cè)活動(dòng),基于該大學(xué)創(chuàng)立的網(wǎng)頁(yè)鍛煉游戲 Real or Fake Text?,搜集相關(guān)數(shù)據(jù)停止培訓(xùn),從而讓 AI 能夠判別出內(nèi)容是由 ChatGPT 生成的還是人類(lèi)撰寫(xiě)的。

該研討的合著者、博士 Liam Dugan 對(duì)此做出理解釋?zhuān)琁T之家翻譯內(nèi)容如下:

今天的人工智能曾經(jīng)能夠生成出十分流利、十分契合語(yǔ)法的文本。但是人工智能會(huì)犯錯(cuò)誤。

我們?cè)?jīng)證明機(jī)器會(huì)犯諸如常識(shí)性錯(cuò)誤、相關(guān)性錯(cuò)誤、推理錯(cuò)誤和邏輯錯(cuò)誤等錯(cuò)誤,而且我們?cè)?jīng)找到了如何發(fā)現(xiàn)這些錯(cuò)誤的辦法。

人們關(guān)于人工智能感到焦慮。我們的研討能夠緩解局部焦慮心情。我以為目前 AI 能夠協(xié)助我們編寫(xiě)更有想象力、更有趣的文本,合適創(chuàng)意協(xié)作。但是 AI 在新聞報(bào)道、學(xué)術(shù)論文或法律倡議方面的應(yīng)用還是十分糟糕的,我們無(wú)法確保其真實(shí)性。

上一條:GPT-4來(lái)了,但不要擔(dān)...

下一條:寧暢AI效勞器支持百度文...