人工智能是人們熱議的話題,不是嗎?成都小程序開(kāi)發(fā)的社交媒體上充斥著人們談?wù)撊斯ぶ悄苣茏鍪裁春筒荒茏鍪裁?,他們中的大多?shù)人甚至不是科技行業(yè)的一員。雖然我是人工智能的忠實(shí)支持者,也是相信人工智能將對(duì)經(jīng)濟(jì)和社會(huì)產(chǎn)生巨大影響的人之一,但我有點(diǎn)預(yù)料到這種熱議現(xiàn)在已經(jīng)平息了。
毫無(wú)疑問(wèn),人工智能已成為公眾意識(shí)的一部分,或者說(shuō)各行各業(yè)對(duì)人工智能開(kāi)發(fā)服務(wù)的需求日益增加。如果你一直在關(guān)注新聞,你就會(huì)知道美國(guó)編劇協(xié)會(huì)對(duì)好萊塢電影公司進(jìn)行了罷工。他們的要求是什么?保護(hù)好萊塢編劇免受人工智能的可能采用及其對(duì)好萊塢編劇的影響。甚至演員們也擔(dān)心,很快人工智能就可以復(fù)制他們的肖像,以至于不再需要他們的服務(wù)。
每一個(gè)人工智能支持者都會(huì)有一個(gè)反對(duì)者,坦率地說(shuō),我對(duì)“這個(gè)或那個(gè)人工智能天才在反對(duì)人工智能”的說(shuō)法感到非常沮喪。現(xiàn)在,我認(rèn)為這不僅僅是毫無(wú)根據(jù)的恐嚇。畢竟,奧本海默非常清楚他和他的團(tuán)隊(duì)在開(kāi)發(fā)原子彈時(shí)所做的事情的危險(xiǎn)性。同樣,許多一生都在研究人工智能的聰明人也對(duì)如果我們不開(kāi)始認(rèn)真對(duì)待這項(xiàng)技術(shù),未來(lái)將會(huì)發(fā)生什么深感擔(dān)憂。
奧本海默和他那個(gè)時(shí)代的杰出物理學(xué)家試圖從根本上理解世界是如何運(yùn)轉(zhuǎn)的(原子);他們的理論和實(shí)驗(yàn)為原子彈的研制奠定了基礎(chǔ)。這些科學(xué)家相信進(jìn)步和科學(xué),雖然他們中的一些人明白自己行為的后果,但當(dāng)權(quán)者并不了解其中的道德影響。
而這正是許多人工智能思想家試圖闡明的觀點(diǎn),這并不是說(shuō)我們不應(yīng)該信任人工智能。而是我們應(yīng)該仔細(xì)思考它的影響,而不是盲目地強(qiáng)行推行更強(qiáng)大的模型,而不了解其內(nèi)部運(yùn)作方式和它可能產(chǎn)生的社會(huì)影響。
我感到沮喪的是,媒體抓住了人們對(duì)人工智能的不信任,并將這一問(wèn)題描繪得最糟糕。很抱歉,但人工智能出現(xiàn)的時(shí)間比你對(duì)它的興趣要長(zhǎng)得多。雖然我們一直認(rèn)為這項(xiàng)技術(shù)可能是危險(xiǎn)的(因?yàn)?,讓我們面?duì)現(xiàn)實(shí)吧,任何技術(shù)落入壞人之手都可能是危險(xiǎn)的),但有很多誤解和虛假新聞四處傳播,攪亂了局面。
所以這就是我們今天要討論的內(nèi)容——為什么人工智能不是天網(wǎng)以及為什么它值得信任。
雖然乍一看,著名作家和藝術(shù)家在人工智能時(shí)代對(duì)自己作品的擔(dān)憂似乎很愚蠢,但他們的擔(dān)憂并非毫無(wú)根據(jù)。世界各地的極客們已經(jīng)體驗(yàn)過(guò)G/O媒體“與時(shí)俱進(jìn)”的可恥嘗試,他們讓人工智能模型為其博客Gizmodo撰寫(xiě)文章。
只有一個(gè)小問(wèn)題,這篇文章本應(yīng)按時(shí)間順序列出每一款星球大戰(zhàn)產(chǎn)品——這對(duì)作家來(lái)說(shuō)很容易,但對(duì)于大型語(yǔ)言模型來(lái)說(shuō)呢?它把事情弄亂了,還忘記了系列中一些最著名的作品。而且由于GPT的截止日期是2021年,它甚至不能談?wù)撨^(guò)去幾年的作品——對(duì)于一個(gè)只談科技和科幻的博客來(lái)說(shuō),這有點(diǎn)乏味?,F(xiàn)在,鑒賞家可能會(huì)爭(zhēng)辯說(shuō),但如果我們建立一個(gè)能夠在撰寫(xiě)文章之前搜索網(wǎng)絡(luò)的代理呢?
是的,理論上這很可行,但如果Glorbo對(duì)此有任何意見(jiàn),那就不行了。長(zhǎng)話短說(shuō),極客們懷疑一家出版物正在根據(jù)一款非常著名的游戲的subreddit生成AI內(nèi)容。因此,極客們做了他們最擅長(zhǎng)的事情,聚在一起創(chuàng)建了關(guān)于萬(wàn)能的Glorbo的虛假帖子,瞧,一篇關(guān)于這個(gè)主題的文章在創(chuàng)紀(jì)錄的時(shí)間內(nèi)發(fā)表了。
再次,人類可以發(fā)現(xiàn)騙局,但生成模型還不具備理解諷刺或判斷哪些詞在某些寫(xiě)作風(fēng)格美學(xué)背景下沒(méi)有意義的技能。
我們應(yīng)該感到震驚,對(duì)吧?我的意思是,由于人工智能,數(shù)千名IT人員正在失去工作。先別急,讓我們客觀看待問(wèn)題:這些裁員事件發(fā)生的時(shí)間遠(yuǎn)早于人工智能的普及。我們聽(tīng)說(shuō)大型科技公司凍結(jié)招聘和裁員,原因很簡(jiǎn)單:我們生活在一個(gè)后疫情時(shí)代。不僅世界經(jīng)濟(jì)遭受重創(chuàng),而且許多為了滿足需求而擴(kuò)大規(guī)模的企業(yè)現(xiàn)在人手過(guò)剩。
換句話說(shuō),是的,人工智能可能已經(jīng)成為人類決策過(guò)程的一個(gè)因素,但我們不要自欺欺人。這不是憑空而來(lái)的。公司正在尋找削減成本的方法,因?yàn)槲覀兌伎吹搅瞬幌橹住?023年是艱難的一年,大多數(shù)企業(yè)都在努力生存。
例如,盡管IBM最初提到將停止招聘他們認(rèn)為可以由AI處理的工作,但他們后來(lái)補(bǔ)充說(shuō),從長(zhǎng)遠(yuǎn)來(lái)看,AI創(chuàng)造的就業(yè)機(jī)會(huì)可能會(huì)多于毀滅的就業(yè)機(jī)會(huì)。為什么?因?yàn)橹灰藗儼凑赵O(shè)計(jì)目的使用AI,它就能賦予人們權(quán)力。
看看Gizmodo發(fā)生的事情,你就會(huì)明白一切。一方面,我們高層相信人工智能的流行和它的好處,所以他們認(rèn)為,“我們可以通過(guò)聘請(qǐng)一些人工智能作家來(lái)節(jié)省一些錢(qián)?!钡@是錯(cuò)誤的思考方式。
讓我們換個(gè)角度思考一下。想象一下,我們有一位星球大戰(zhàn)迷,他比世界上任何人都更了解喬治·盧卡斯所創(chuàng)造的世界和故事——他是遙遠(yuǎn)星系的專家。你不想讓這個(gè)人為你寫(xiě)關(guān)于這個(gè)主題的文章嗎?當(dāng)然。
但假設(shè)他們因?yàn)槟撤N原因不擅長(zhǎng)寫(xiě)作。他們不知道如何表達(dá)自己的想法,或者他們太技術(shù)化,或者他們根本不喜歡寫(xiě)作。編輯將不得不花費(fèi)大量時(shí)間來(lái)潤(rùn)色文章,然后才能將其發(fā)表。
因此,我們擁有一個(gè)具備寫(xiě)作技能的人工智能和世界上最熱愛(ài)《星球大戰(zhàn)》的粉絲。將兩者結(jié)合起來(lái),你就可以擁有星球大戰(zhàn)系列的最佳作家之一,再加上一位優(yōu)秀的編輯,你就擁有了一支成功的團(tuán)隊(duì)。如果一個(gè)人獨(dú)自一人,這個(gè)人很難成為作家或內(nèi)容創(chuàng)作者,但多虧了人工智能,情況發(fā)生了改變。
現(xiàn)在,也許這位新作家有神經(jīng)多樣性,或者英語(yǔ)不是他們的母語(yǔ),或者他們患有注意力缺陷多動(dòng)癥。無(wú)論情況如何,只要正確實(shí)施,人工智能將拓寬他們的視野,為被邊緣化的人們打開(kāi)許多新的可能性。你明白我的意思嗎?人工智能不是我們的敵人或?qū)κ?,而是我們的同事,人們可以通過(guò)將其納入工作流程而獲益匪淺。
是的,某些工作將會(huì)消失,但與此同時(shí),許多場(chǎng)館將會(huì)開(kāi)放,只要我們了解市場(chǎng)趨勢(shì)并努力去適應(yīng)。
就在前幾天,我在廣播中聽(tīng)到一位專家談?wù)摽苹米骷?,以及他們?nèi)绾慰偰艹晒Φ赜米约旱募僭O(shè)擊中要害。從表面上看,這個(gè)論點(diǎn)很有道理。例如,雖然沒(méi)有那么復(fù)雜,但第一部小型手機(jī)與《星際迷航》中的三錄儀有著驚人的相似之處,而如今,我們擁有能夠進(jìn)行醫(yī)療診斷的智能手機(jī)。
不幸的是,這是可及性和確認(rèn)偏見(jiàn)的糟糕結(jié)合。我們只是把更流行的東西或強(qiáng)化我們先前知識(shí)的東西當(dāng)作我們想法的證據(jù)?,F(xiàn)代和流行的科幻小說(shuō)往往對(duì)未來(lái)持虛無(wú)主義觀點(diǎn)(與20世紀(jì)50年代科幻小說(shuō)的樂(lè)觀未來(lái)主義形成鮮明對(duì)比)。
每一個(gè)邪惡的機(jī)器人,比如《黑客帝國(guó)》中的史密斯先生或《終結(jié)者》中的天網(wǎng),都有一個(gè)善良的機(jī)器人,比如《星際迷航:下一代》中的Data或伊恩·班克斯的《文化》系列中的良性計(jì)算機(jī)。人工智能和機(jī)器與人類協(xié)同行動(dòng),創(chuàng)造更美好生活的例子數(shù)不勝數(shù)。
在我談?wù)撊斯ぶ悄軙r(shí),人們經(jīng)常引用一項(xiàng)研究,其中超過(guò)40%的人工智能專家認(rèn)為人工智能成為人類災(zāi)難性技術(shù)的可能性為10%,并問(wèn)我對(duì)這個(gè)問(wèn)題的看法。首先,我非常想知道這個(gè)數(shù)字是如何計(jì)算出來(lái)的,因?yàn)槿绻@是一個(gè)估計(jì)值,那么人類在沒(méi)有經(jīng)過(guò)訓(xùn)練的情況下猜測(cè)概率的能力真的很差。
例如,您是否知道飛機(jī)失事導(dǎo)致機(jī)上所有乘客喪生的原因有上千種??jī)H根據(jù)這些信息,猜測(cè)一下飛機(jī)墜毀的概率——120萬(wàn)分之一,即使您是少數(shù)不幸的人之一,飛機(jī)失事導(dǎo)致人員死亡的概率也是1100萬(wàn)分之一。相比之下,發(fā)生車(chē)禍的概率為5000分之一。
當(dāng)然,你可能已經(jīng)知道這一點(diǎn),因?yàn)槟阒灰刻炜葱侣劸椭?,飛機(jī)失事的新聞是多么罕見(jiàn),而車(chē)禍造成的交通堵塞卻非常常見(jiàn)。問(wèn)題是,我們根本沒(méi)有足夠的關(guān)于人工智能的信息來(lái)對(duì)可能引發(fā)世界末日的情景做出有根據(jù)的猜測(cè)。
這里還有另一件可能讓你晚上安心休息的小知識(shí)。許多專家在談?wù)撊斯ぶ悄艿娘L(fēng)險(xiǎn)時(shí),實(shí)際上都在考慮通用人工智能(AGI)。雖然我內(nèi)心深處毫不懷疑,總有一天我們會(huì)看到通用人工智能,但這不會(huì)很快發(fā)生。
例如,市面上最強(qiáng)大的生成模型之一GPT-4就讓OpenAI頭疼不已。他們不僅仍在限制付費(fèi)用戶每3小時(shí)向模型發(fā)送50條消息(截至2023年7月),而且最近的一項(xiàng)研究表明,該模型也變得不那么智能,無(wú)法解決簡(jiǎn)單的算術(shù)問(wèn)題,編寫(xiě)的代碼比以前有更多的bug。
是的,這是真的,正如我們之前提到的,人工智能會(huì)“撒謊”和“產(chǎn)生幻覺(jué)”。這些是擬人化的術(shù)語(yǔ),用于描述人工智能可能犯的一些錯(cuò)誤。例如,“撒謊”是指人工智能如何生成不準(zhǔn)確或誤導(dǎo)性的信息?!爱a(chǎn)生幻覺(jué)”是指人工智能如何誤解輸入或根據(jù)其訓(xùn)練填補(bǔ)缺失的信息,這通常會(huì)導(dǎo)致奇怪或不正確的輸出。
以GPT-4這樣的生成模型為例,該模型經(jīng)過(guò)訓(xùn)練可以根據(jù)輸入的內(nèi)容預(yù)測(cè)和生成類似人類的文本。該模型不理解其生成的內(nèi)容,也不了解其訓(xùn)練數(shù)據(jù)之外的世界。因此,它偶爾會(huì)生成看似合理但完全錯(cuò)誤或毫無(wú)意義的文本。
類似地,經(jīng)過(guò)圖像識(shí)別訓(xùn)練的人工智能有時(shí)會(huì)“看到”實(shí)際上并不存在的對(duì)象或圖案,這種現(xiàn)象有時(shí)被稱為“幻覺(jué)”。發(fā)生這種情況的原因是人工智能已經(jīng)學(xué)會(huì)將數(shù)據(jù)中的某些模式與某些標(biāo)簽聯(lián)系起來(lái),并且有時(shí)會(huì)不恰當(dāng)?shù)貞?yīng)用這些關(guān)聯(lián)。
另一個(gè)例子是預(yù)測(cè)模型,它試圖根據(jù)與訓(xùn)練數(shù)據(jù)集相差太大的數(shù)據(jù)集進(jìn)行預(yù)測(cè)。如果你認(rèn)為人工智能可以通過(guò)數(shù)百萬(wàn)個(gè)關(guān)于漢堡卡路里含量的數(shù)據(jù)點(diǎn)進(jìn)行訓(xùn)練,那么就別指望它能準(zhǔn)確預(yù)測(cè)蘋(píng)果派的卡路里含量。
人工智能模型產(chǎn)生幻覺(jué)是因?yàn)樗鼈內(nèi)狈θ祟悓?duì)世界的理解。人類對(duì)世界有常識(shí)性的理解,這種理解源于我們的日常生活經(jīng)驗(yàn)。而人工智能則缺乏這種直覺(jué)。它只是從訓(xùn)練數(shù)據(jù)中學(xué)習(xí)模式,并將這些模式應(yīng)用于新數(shù)據(jù)。
你知道人類喜歡說(shuō)我們不應(yīng)該把蘋(píng)果和橘子混在一起嗎?對(duì)于人工智能來(lái)說(shuō),這毫無(wú)意義。如果它們采用數(shù)字向量,它們會(huì)始終得出一個(gè)結(jié)果,無(wú)論這些數(shù)字來(lái)自何處。
這些問(wèn)題在人工智能研究人員中廣為人知,也是一個(gè)活躍的研究領(lǐng)域。研究人員正在設(shè)計(jì)算法,使人工智能更可靠,更不容易出現(xiàn)此類錯(cuò)誤。例如,他們正在探索確保人工智能輸出結(jié)果可解釋和合理化的方法。他們還在研究檢測(cè)和糾正人工智能“幻覺(jué)”的方法。
我們也不要忘記,即使是人類也會(huì)撒謊和產(chǎn)生幻覺(jué)。我們都容易出現(xiàn)認(rèn)知偏差、判斷失誤和錯(cuò)誤信念。然而,與人類不同,人工智能在“撒謊”或“產(chǎn)生幻覺(jué)”時(shí)并不懷有惡意。它只是根據(jù)所學(xué)的模式,做它被訓(xùn)練要做的事情。
建立對(duì)自主系統(tǒng)的信任對(duì)于其成功融入社會(huì)和尊重基本權(quán)利至關(guān)重要。
總之,雖然人工智能可以“撒謊”和“產(chǎn)生幻覺(jué)”,但它并不是故意這樣做的。人工智能的“錯(cuò)誤”是其訓(xùn)練的延伸,也是其無(wú)法像人類一樣理解世界的原因。然而,隨著研究人員不斷改進(jìn)這些模型,我們可以期待人工智能變得更加可靠、更加準(zhǔn)確,并且更不容易犯這樣的錯(cuò)誤。
成都小程序開(kāi)發(fā)只需記住,人工智能是一種工具——一種非常強(qiáng)大的工具——與所有工具一樣,必須在其范圍內(nèi)明智且負(fù)責(zé)任地使用它。自主系統(tǒng)需要謹(jǐn)慎對(duì)待,了解其局限性對(duì)于做出實(shí)施和使用決策至關(guān)重要。
文章均為全美專業(yè)成都小程序開(kāi)發(fā)公司,專注于成都小程序開(kāi)發(fā)服務(wù)原創(chuàng),轉(zhuǎn)載請(qǐng)注明來(lái)自http://www.39247.cn/news/2986.html