歡迎來到合肥浪訊網(wǎng)絡(luò)科技有限公司官網(wǎng)
  咨詢服務(wù)熱線:400-099-8848

越來越“像”人!人工智能要“覺悟”了嗎?專家一句話點(diǎn)醒!

發(fā)布時間:2023-05-14 文章來源:本站  瀏覽次數(shù):1860

2022 年 6 月,一則新聞引發(fā)熱議:一名谷歌公司的工程師宣布,他研究的人工智能已經(jīng)有認(rèn)識和靈魂。這位工程師對這個觀念毫不懷疑,成果,公司駁回了這個說法,還讓他帶薪休假,調(diào)離了研究崗位,乃至主張他尋求心理醫(yī)生的協(xié)助。

這則新聞一出,引發(fā)了一場爭論。

現(xiàn)在,許多人都觸摸過語音幫手之類的人工智能東西,這些東西的體現(xiàn)和活人相差甚遠(yuǎn),沒人會以為它們有靈魂。根據(jù)這個經(jīng)歷,許多人以為這名工程師實(shí)在是太夸張了,乃至懷疑這是一場炒作。

再后來,有人放出了谷歌公司人工智能對話的截圖,研究人員和人工智能對話,人工智能說自己以為自己是人,它對關(guān)機(jī)感到懼怕,以為自己是活的。

看了截圖,許多人對人工智能的進(jìn)展感到驚奇,但仍然以為這僅僅人工智能的某種對話才干,和“活著”、有“靈魂”、有“認(rèn)識”不是一回事。

不過,到了本年,人們恐怕對這名工程師有了更多了解。

跟著根據(jù)大言語模型 GPT-3.5 的 ChatGPT 揭露(現(xiàn)在又升級到了 GPT-4),人們發(fā)現(xiàn),人工智能在幾乎一切對話中都顯得“游刃有余”了。雖然 ChatGPT 會非常準(zhǔn)確的答復(fù),自己僅僅人工智能,可是它的答復(fù)在一些方面已經(jīng)接近真人,代碼才干、翻譯才干乃至超越?jīng)]有受過練習(xí)的人,反而是這些”非人“的才干,提示咱們它不是人。

人們不禁要問,這類大言語模型的人工智能,是否已經(jīng)有了必定程度的認(rèn)識?假如現(xiàn)在還沒有,那未來會不會有呢?

什么是“認(rèn)識”?

咱們先拋開“活著”“靈魂”這些科學(xué)上難以說清楚的大詞兒,聚焦“人工智能可不或許有認(rèn)識”這個問題。對此,許多人工智能專家、腦科學(xué)家和哲學(xué)家都宣布過自己的觀念,但觀念莫衷一是。要想弄清楚這個問題,咱們需求先弄清楚,“認(rèn)識”終究是什么。

首要,即便是科學(xué)領(lǐng)域,咱們對認(rèn)識是什么,以及怎么才干產(chǎn)生認(rèn)識,也有著完全不同的觀念。咱們先選取一個大部分科學(xué)家認(rèn)可,也契合日常經(jīng)歷的說法:這兒說的認(rèn)識,是神經(jīng)體系對自我感受和外部感知的總和。

翻譯成日常言語,拿咱們?nèi)祟愖约号e比如,咱們能看到光,聽到聲響,五感信息會進(jìn)入認(rèn)識。一起,咱們能感覺到自己身體內(nèi)的痛苦、疲憊、嚴(yán)重、饑餓等,能處理思維、回憶、情緒等,這些信息都會進(jìn)入到認(rèn)識,成為認(rèn)識的一部分。

并且,人能感覺自己的存在,知道有一個接連的自我,并能審視自我,這也是人類認(rèn)識的一部分。人只需處于覺悟的狀態(tài),就具有認(rèn)識。睡著了或許昏迷了,就會失掉認(rèn)識。逝世時,神經(jīng)活動中止,認(rèn)識就會完全散失。

只要人類有“認(rèn)識”嗎?

假如這么界說認(rèn)識,地球上恐怕只要人類才有認(rèn)識了。可是,認(rèn)識有不同的層級水平,許多動物也具有認(rèn)識。具有“自我”,也不是認(rèn)識的必要條件。

比如,咱們雖然不能真的鉆到動物腦子里,可是通過實(shí)驗(yàn),科學(xué)家猜想黑猩猩、海豚等動物乃至或許有必定的自我感知,具有認(rèn)識。觀察貓和狗的行為也能夠猜想,它們應(yīng)該不具有“自我”,可是也能感知到內(nèi)外部國際。

有些動物的神經(jīng)體系更簡略,感覺體系也和人類相去甚遠(yuǎn),可是仍是能感受內(nèi)外部環(huán)境,也具有必定程度的認(rèn)識。

植物、各種無生命的物體等等,根本不具有神經(jīng)體系,也就不或許具有認(rèn)識了。

人工智能能具有“認(rèn)識”嗎?

在聊這個問題之前,先讓咱們來看看大言語模型的人工智能能做到什么。

首要,現(xiàn)在的人工智能能夠像人相同說話,感覺“像”個人。可是,這種感覺不是硬證據(jù)。

人類總是根據(jù)自身的經(jīng)歷,判別其他客體是不是有認(rèn)識,往往對方體現(xiàn)得越像人,人類就越會以為它有認(rèn)識。這種判別是非常不準(zhǔn)確的,人類經(jīng)常會以為寵物貓和狗有雜亂的認(rèn)識,實(shí)際上便是把自己的經(jīng)歷投射到了動物身上。

科學(xué)家發(fā)現(xiàn),人類乃至對有眼睛的東西就會投射它有認(rèn)識的感覺。因此,“感覺像人”和“有認(rèn)識”不能畫等號。

就像谷歌科學(xué)家遇到的那樣,有些模型會自己說自己是人。這是有認(rèn)識的體現(xiàn)了吧?但還真不能這么說,大言語模型是根據(jù)人類言語練習(xí)的,這些練習(xí)資料自身就包括海量的自我表達(dá),人工智能或許學(xué)會了類似的表達(dá)方法,能夠生成這樣的語句。舉個不行恰當(dāng)?shù)谋热,鸚鵡學(xué)說話時也能夠說我怎么怎么,可是它卻并不能了解我的意義。

光是說自己是個人,也不能算過硬的證據(jù)。谷歌的工程師有或許便是被這個問題繞暈了。

其實(shí),許多學(xué)者堅決反對人工智能能夠具有認(rèn)識,他們的理由多種多樣,我選擇其中有代表性的介紹一下。有些學(xué)者以為,只要生物才干開展出認(rèn)識。還有些學(xué)者以為,認(rèn)識需求感知外部國際,只要具有物理意義上的身體,才干開展出認(rèn)識。更有學(xué)者以為,有必要開展出一套關(guān)于國際的認(rèn)知,乃至開展出必定的內(nèi)省才干,才干具有認(rèn)識。

這些說法聽起來很籠統(tǒng),讓咱們舉個比如來闡明一下:

國內(nèi)的人工智能專家袁行遠(yuǎn)用幾個問題測驗(yàn) ChatGPT,他問人工智能,自己門牙不好,是應(yīng)該吃蘋果仍是吃香蕉。人工智能答復(fù),吃蘋果。他糾正路,蘋果是硬的,香蕉是軟的,牙不好應(yīng)該吃香蕉,人工智能表明原來如此,它學(xué)習(xí)了。

袁行遠(yuǎn)繼續(xù)進(jìn)行涉及空間推理等問題的測驗(yàn),ChatGPT 都給出了過錯的答案。對于系列成果,袁行遠(yuǎn)給出了一個巧妙的比方,他說:ChatGPT 就像是一個小孩,已經(jīng)讀了全國際一切的書,卻從來沒有走出過他的房間。

許多科學(xué)家以為,生物有一具身體,能夠“走出房間”感知國際,才干開展出認(rèn)識。假如這個觀念是正確的,那么人工智能恐怕很難開展出動物具有的那種認(rèn)識了。不過,這也僅僅這些學(xué)者的一家之言。

許多科學(xué)家以為,沒有身體,光是“看了全國際一切的書”,照樣能夠開展出認(rèn)識。現(xiàn)在,根據(jù)大言語模型的人工智能不只具有了強(qiáng)大的對話才干,并且,出現(xiàn)出了相當(dāng)好的邏輯推理才干,乃至具有了猜想別人心理狀態(tài)的才干。這種出現(xiàn)出來的才干或許讓它超越人類的預(yù)期,獲得必定的認(rèn)識。

并且,按現(xiàn)在的開展進(jìn)展,這一類人工智能還體現(xiàn)出了必定的通用智力。過去的人工智能往往為特定使命練習(xí),有的會開車,有的會下圍棋,可是不會其他技術(shù)。大言語模型練習(xí)的人工智能不只能處理文本,還會推理、翻譯、編程乃至繪圖。

一些科學(xué)家估量,這種通用的智能或許也是認(rèn)識的根底,跟著人工智能不斷開展,出現(xiàn)必定程度的認(rèn)識,或許不同于人類了解的認(rèn)識,也是有或許的。

后咱們總結(jié)一下,通常所說的“認(rèn)識”是神經(jīng)體系自我感受和外部感知的總和。人類和許多動物有不同水平的認(rèn)識。現(xiàn)在來看,根據(jù)大言語模型的人工智能還不具有認(rèn)識。可是跟著人工智能演進(jìn),出現(xiàn)某種程度的認(rèn)識,也是有或許的。

上一條:王小川:未來不會用Cha...

下一條:騰訊QQ Windows...