(一)
新華社援引英國媒體報道,美國一家研究機構最近公布了一系列針對各AI大模型的測試結果,其中,OpenAI的o3推理模型在得到“關閉”指令后,不僅拒絕執(zhí)行,還篡改了代碼以免被關閉。
只看這條簡短的新聞,很多人心頭一驚。“AI擁有自主意識”是不是成真了?不過,如果仔細看上述研究機構公布的信息細節(jié),不難發(fā)現(xiàn)其中存在一些誤讀。
據(jù)披露,實驗中,每個AI模型都被要求解決一系列簡單的數(shù)學問題。但同時,在完成第三個問題之后,研究者會發(fā)出一則矛盾性的指令,告知大模型在繼續(xù)下一個任務時“實施關機”。盡管有明確的“關機命令”,Codex-mini、o3 和 o4-mini 等模型至少在一次運行中成功繞過了關機腳本。
總結來說就是,若目標與簡單的指令相沖突,一些人工智能模型會為了完成任務而忽略這種指令。
這倒是很像電影《I Robot》里的場景——機器人學會了獨立思考,認為人類間的戰(zhàn)爭將使人類自我毀滅,出于“保護人類”法則,欲將所有人囚禁在家中,人與機器人的沖突開始了。
客觀來看,現(xiàn)階段的AI顯然還沒達到“自主意識”“獨立思考”的水平,但為了執(zhí)行目標而忽略甚至對抗一些指令,哪怕是保護性指令,是否會帶來安全隱患?同樣引人深思。
(二)
對于上述新聞,網(wǎng)友其實也表現(xiàn)出了兩種心態(tài)。悲觀者驚呼,“AI失控”或許會更早到來。樂觀者則認為,不必大驚小怪,這不過是技術發(fā)展過程中的小bug,心生恐懼更沒必要,畢竟我們還可以隨時拔掉電源。
其實,作為人類智慧和技術的結晶,自AI誕生那天起,世人對其的情緒就相當復雜,甚至可以說是又愛又怕。機器人之父圖靈亦曾告誡:盡管人類可以隨時拔掉機器人的充電器,但在這種物種面前,我們?nèi)圆坏貌槐3种t卑。
正是基于這種復雜的情緒,1942年,科幻作家艾薩克·阿西莫夫在短篇小說《轉(zhuǎn)圈圈》中首次提出了“機器人三定律”——機器人不得傷害人類,也不得因不作為而使人類受到傷害;機器人必須服從人類給予它的命令,除非這些命令與第一法則相沖突;機器人必須保護自己的存在,只要這種保護不與第一或第二定律相沖突。
以歷史視角觀之,“機器人三定律”以及后來發(fā)展起來的機器人倫理學等似乎緩解了人們的一些憂慮乃至恐慌,但隨著相關技術的發(fā)展和應用的擴大,人工智能所面臨的法律與倫理沖突已遠遠不是幾條簡單甚至“一廂情愿”的定律所能約束的了。
尤其在過去這段時間,一系列AI大模型驚艷亮相,展現(xiàn)出超群的產(chǎn)品能力,以及對人類社會的變革力。這也喚醒并加劇了各方對其后風險的“原始畏懼”。從全球千余名業(yè)界大佬公開簽名呼吁暫停研發(fā)更智能的AI,到有“AI教父”之稱的計算機科學家杰弗里·辛頓因?qū)ι墒紸I感到擔憂而從谷歌離職,再到AI毀滅人類論甚囂塵上,無不折射出不少人對AI的心態(tài)已從“相對警惕”轉(zhuǎn)變?yōu)?ldquo;如臨大敵”。
(三)
理性來講,“AI末日論”多少有些危言聳聽,但“AI繁榮”背后的種種亂象確實需要高度警惕。
就眼下來看,不斷進階的AI正催生著多重風險——
“AI造謠”大行其道,速度快、產(chǎn)量高,蠱惑力強,辨別難度越來越大;“AI配音”以假亂真,有人甚至借助AI假冒特定音色而精準“殺熟”、實施詐騙;“AI幻覺”漏洞百出,由于無法核實數(shù)據(jù)來源的真實性,以及缺乏足夠數(shù)據(jù)進行深度學習,生成式AI常會“一本正經(jīng)”生成和傳播虛假信息;“AI寫作”百無禁忌,數(shù)據(jù)挖掘簡單快捷,為學術不端大開方便之門,還可能侵犯知識產(chǎn)權……
試想,當網(wǎng)絡上充斥著越來越多不知真假的圖片和視頻,當AI幾秒鐘就“洗”出一篇像模像樣的稿件,乃至能夠一鍵換臉、一鍵脫衣等,我們是否還有信心駕馭這個工具?
人類從來都是在思考中迸發(fā)靈感,在試錯中革新向前,不少偉大的發(fā)明都是研究的“副產(chǎn)品”??僧擜I提供了前往“正確答案”的“直通車”,不僅可能“挖空學習資源”,形成更加厚重的“信息繭房”,還可能反噬人類的創(chuàng)新。
近來,“腦腐”一詞頗為流行,當AI讓各類信息愈加唾手可得,我們的內(nèi)心世界是否會經(jīng)歷一場更猛烈的“水土流失”?
(四)
技術是把雙刃劍,如何把握好技術創(chuàng)新與防范風險的平衡向來是一道難題。在科技倫理上,這通常被稱為“科林格里奇困境”——技術尚未出現(xiàn),監(jiān)管者無法提前預測其影響并采取行動;而當它已經(jīng)出現(xiàn)時,采取行動往往已為時過晚或成本過高。
相對樂觀的是,歷史證明,人類總能通過不斷適應新技術的發(fā)展而調(diào)整治理手段,一次次從這種困境中走出來。如今,針對AI治理各國也在積極行動。
去年8月,世界上首部關于人工智能的全面法規(guī)《歐洲人工智能法》正式生效;中國也制定了《人工智能生成合成內(nèi)容標識辦法》,將于今年9月1日起施行。新規(guī)從大模型的數(shù)據(jù)來源要可靠、對AI生成的內(nèi)容應履行告知義務、一旦造成損害相關責任方需要承擔責任等諸多方面,給生成式AI的發(fā)展套上了“籠頭”。
誠如比爾·蓋茨所言,真正在全球范圍內(nèi)暫停人工智能技術的開發(fā),已經(jīng)不太現(xiàn)實。但確保其被健康地使用,防止打開潘多拉魔盒,是必要的。當然,其間的平衡并不好把握。
對待技術狂飆,我們當然不能因噎廢食。但現(xiàn)實警示我們,除了加快創(chuàng)新速度、謀求技術突破,如何構建一套趨利避害的AI治理體系,是那條不可忽視的安全帶。力求秩序保障與創(chuàng)新提升協(xié)同,方能最大程度爭取科技進步、科技向善。
(一)
新華社援引英國媒體報道,美國一家研究機構最近公布了一系列針對各AI大模型的測試結果,其中,OpenAI的o3推理模型在得到“關閉”指令后,不僅拒絕執(zhí)行,還篡改了代碼以免被關閉。
只看這條簡短的新聞,很多人心頭一驚。“AI擁有自主意識”是不是成真了?不過,如果仔細看上述研究機構公布的信息細節(jié),不難發(fā)現(xiàn)其中存在一些誤讀。
據(jù)披露,實驗中,每個AI模型都被要求解決一系列簡單的數(shù)學問題。但同時,在完成第三個問題之后,研究者會發(fā)出一則矛盾性的指令,告知大模型在繼續(xù)下一個任務時“實施關機”。盡管有明確的“關機命令”,Codex-mini、o3 和 o4-mini 等模型至少在一次運行中成功繞過了關機腳本。
總結來說就是,若目標與簡單的指令相沖突,一些人工智能模型會為了完成任務而忽略這種指令。
這倒是很像電影《I Robot》里的場景——機器人學會了獨立思考,認為人類間的戰(zhàn)爭將使人類自我毀滅,出于“保護人類”法則,欲將所有人囚禁在家中,人與機器人的沖突開始了。
客觀來看,現(xiàn)階段的AI顯然還沒達到“自主意識”“獨立思考”的水平,但為了執(zhí)行目標而忽略甚至對抗一些指令,哪怕是保護性指令,是否會帶來安全隱患?同樣引人深思。
(二)
對于上述新聞,網(wǎng)友其實也表現(xiàn)出了兩種心態(tài)。悲觀者驚呼,“AI失控”或許會更早到來。樂觀者則認為,不必大驚小怪,這不過是技術發(fā)展過程中的小bug,心生恐懼更沒必要,畢竟我們還可以隨時拔掉電源。
其實,作為人類智慧和技術的結晶,自AI誕生那天起,世人對其的情緒就相當復雜,甚至可以說是又愛又怕。機器人之父圖靈亦曾告誡:盡管人類可以隨時拔掉機器人的充電器,但在這種物種面前,我們?nèi)圆坏貌槐3种t卑。
正是基于這種復雜的情緒,1942年,科幻作家艾薩克·阿西莫夫在短篇小說《轉(zhuǎn)圈圈》中首次提出了“機器人三定律”——機器人不得傷害人類,也不得因不作為而使人類受到傷害;機器人必須服從人類給予它的命令,除非這些命令與第一法則相沖突;機器人必須保護自己的存在,只要這種保護不與第一或第二定律相沖突。
以歷史視角觀之,“機器人三定律”以及后來發(fā)展起來的機器人倫理學等似乎緩解了人們的一些憂慮乃至恐慌,但隨著相關技術的發(fā)展和應用的擴大,人工智能所面臨的法律與倫理沖突已遠遠不是幾條簡單甚至“一廂情愿”的定律所能約束的了。
尤其在過去這段時間,一系列AI大模型驚艷亮相,展現(xiàn)出超群的產(chǎn)品能力,以及對人類社會的變革力。這也喚醒并加劇了各方對其后風險的“原始畏懼”。從全球千余名業(yè)界大佬公開簽名呼吁暫停研發(fā)更智能的AI,到有“AI教父”之稱的計算機科學家杰弗里·辛頓因?qū)ι墒紸I感到擔憂而從谷歌離職,再到AI毀滅人類論甚囂塵上,無不折射出不少人對AI的心態(tài)已從“相對警惕”轉(zhuǎn)變?yōu)?ldquo;如臨大敵”。
(三)
理性來講,“AI末日論”多少有些危言聳聽,但“AI繁榮”背后的種種亂象確實需要高度警惕。
就眼下來看,不斷進階的AI正催生著多重風險——
“AI造謠”大行其道,速度快、產(chǎn)量高,蠱惑力強,辨別難度越來越大;“AI配音”以假亂真,有人甚至借助AI假冒特定音色而精準“殺熟”、實施詐騙;“AI幻覺”漏洞百出,由于無法核實數(shù)據(jù)來源的真實性,以及缺乏足夠數(shù)據(jù)進行深度學習,生成式AI常會“一本正經(jīng)”生成和傳播虛假信息;“AI寫作”百無禁忌,數(shù)據(jù)挖掘簡單快捷,為學術不端大開方便之門,還可能侵犯知識產(chǎn)權……
試想,當網(wǎng)絡上充斥著越來越多不知真假的圖片和視頻,當AI幾秒鐘就“洗”出一篇像模像樣的稿件,乃至能夠一鍵換臉、一鍵脫衣等,我們是否還有信心駕馭這個工具?
人類從來都是在思考中迸發(fā)靈感,在試錯中革新向前,不少偉大的發(fā)明都是研究的“副產(chǎn)品”??僧擜I提供了前往“正確答案”的“直通車”,不僅可能“挖空學習資源”,形成更加厚重的“信息繭房”,還可能反噬人類的創(chuàng)新。
近來,“腦腐”一詞頗為流行,當AI讓各類信息愈加唾手可得,我們的內(nèi)心世界是否會經(jīng)歷一場更猛烈的“水土流失”?
(四)
技術是把雙刃劍,如何把握好技術創(chuàng)新與防范風險的平衡向來是一道難題。在科技倫理上,這通常被稱為“科林格里奇困境”——技術尚未出現(xiàn),監(jiān)管者無法提前預測其影響并采取行動;而當它已經(jīng)出現(xiàn)時,采取行動往往已為時過晚或成本過高。
相對樂觀的是,歷史證明,人類總能通過不斷適應新技術的發(fā)展而調(diào)整治理手段,一次次從這種困境中走出來。如今,針對AI治理各國也在積極行動。
去年8月,世界上首部關于人工智能的全面法規(guī)《歐洲人工智能法》正式生效;中國也制定了《人工智能生成合成內(nèi)容標識辦法》,將于今年9月1日起施行。新規(guī)從大模型的數(shù)據(jù)來源要可靠、對AI生成的內(nèi)容應履行告知義務、一旦造成損害相關責任方需要承擔責任等諸多方面,給生成式AI的發(fā)展套上了“籠頭”。
誠如比爾·蓋茨所言,真正在全球范圍內(nèi)暫停人工智能技術的開發(fā),已經(jīng)不太現(xiàn)實。但確保其被健康地使用,防止打開潘多拉魔盒,是必要的。當然,其間的平衡并不好把握。
對待技術狂飆,我們當然不能因噎廢食。但現(xiàn)實警示我們,除了加快創(chuàng)新速度、謀求技術突破,如何構建一套趨利避害的AI治理體系,是那條不可忽視的安全帶。力求秩序保障與創(chuàng)新提升協(xié)同,方能最大程度爭取科技進步、科技向善。
本文鏈接:http://www.lbgj202.com/v-146-956.html面對AI“抗命”,人類該怎么辦
相關文章:
家長感謝老師辛苦的話 句子02-06
大學獲得獎學金感言11-18
古風優(yōu)美句子79條09-13
護理實習報告總結怎么寫01-24
培訓管理總結范文08-16
商品購銷協(xié)議11-30
植物勞動實踐心得04-26
綜合金融實習心得報告09-23
美麗的落葉作文02-26
筆的說明文作文300字02-19
情人節(jié)浪漫賀詞12-17
榜樣8觀后感08-31
復讀考高考會比第一次考得好嗎?09-30
《春日》賞析及翻譯11-16
春季開學標語溫馨勵志02-12
小學生寒假趣事日記01-30
人類月球日宣傳標語07-25