65歲的學者汪暉身著西裝上臺了。他頭發花白,手執講稿,身后的大屏幕上寫著這場論壇的主題:“AI時代的倫理奇點”。這是當下的熱門話題,但臺下有人在打哈欠,顯然清晨的困意未消。
我是一大早,跨越大半個北京城,擠了一個多小時的地鐵來清華大學聽這場“方塘論壇”的,興致很高。一半是因為這跟AI有關,一半是因為嘉賓名單里不只有科學家,還有70歲的趙鼎新、65歲的汪暉、64歲的趙汀陽等。
他們是人文社科領域的“思想老者”,要跟科學家一塊兒探討這個時代最新的燙手命題,這本身就值得期待。針對“時代”,他們論了幾十年,現在仍未停止。
面前的階梯教室沒坐滿,但也匯聚了上百人:學生、教授、學者、記者、作家,還有從美、英、德、意等國請來的嘉賓。空氣里似乎彌漫著一種學術會議特有的、略帶沉悶的氣氛,我揉了揉酸澀的眼睛,吃了口離家時塞進背包的面包,想提振精神,讓沉重的腦袋清醒一些。
“幾乎所有領域,都在經歷系統性的重構。”汪暉主持開場,話語沉穩有力,“回應AI時代的倫理挑戰,不僅需要對技術本身的理解,更需要回到哲學、社會學、政治經濟學、文學、藝術等基礎人文領域,共同探尋人類何以‘安身立命’”。
論壇的擇期頗顯用心,6月23日這天是計算機科學之父、人工智能之父——艾倫·圖靈誕辰113周年;圖靈獎的中國得主、中國科學院院士、清華大學人工智能學院院長姚期智也受邀到場。
人工智能被提出75年了,而AI大規模走入公眾視野不過數年。最新數據顯示,中國生成式AI用戶數量已超3億。用戶數量從0到3億,中國互聯網花了15年,而AI只用了兩年。OpenAI的用戶數量更是在今年4月初就達到了5億。
歷史上從未有一個時代如AI時代這般,將未來如此迅猛地推向當下。時間仿佛被丟入加速器,而AI如氧氣一般,彌漫進社會和人的毛細血管里。智能駕駛、機器人、AI醫生、AI伴侶等,過去數十年來,昔日科幻小說里的事物正步入現實。
當越來越多的人享受著AI帶來的技術紅利、探索新的可能性時,挑戰也如影隨形:失業、偏見、倫理、法律,乃至關乎人類存續的風險。這些問題,讓我覺得既遙遠又真實。
“通用人工智能的能力快速增長,人類是否還有能力管控它?”姚期智是這天的第一個主題發言者。年近八旬的他,聲音不高,但每一個問題,都能戳我一下。
他認為,AI時代的問題,許多是被放大的舊疾,尤其是生存性風險,武器的誕生曾讓人類很焦慮,AI也有這樣的問題,“它變得更危險、更難對付”。
姚期智提到了2024年諾貝爾化學獎得主——因利用AlphaFold(一種AI系統)解決蛋白質結構預測難題而獲獎的戴米斯·哈薩比斯(Demis Hassabis)和約翰·江珀(John M.Jumper)。“這是多年來不可能的事情,也給了我們一些終極希望。”姚期智隨即警示,AI在生物醫學領域的突破,也可能被用來創造“鏡像生命(Mirror life,一種存在于假說中的人工合成生物)”,帶來致命的災難。
2024年12月,《科學》雜志就曾發文呼吁全球暫停“鏡像生命”的研究,優先考慮并防范風險。
另一種生存性風險在于大模型失控。“我們現在制造出來的AI系統,它變得越來越像人。”姚期智指出,已有模型展示出“騙人”本領和對人性的洞察——問題的嚴峻性在于,當它真正像人一樣,甚至超過人時,如何控制。
這也是許多科學家反復警示的人工智能的“控制難題”,現在這個難題比以往任何時候都更迫切地需要答案。我這個人工智能技術領域的小白是沒有答案的,那一刻,我腦子里只閃過許多科幻電影里的失控場景。
從兩年前開始,許多科學家就曾疾呼:至少三分之一AI研發預算要用于確保安全。現實卻是,全球AI安全研究明顯滯后于技術發展。
“現在的大模型還沒有‘囂張’到那個程度,所以還沒有產生毀滅世界的結果,但是長期來講,我們要把這個事管制好。”姚期智強調,安全治理的當務之急是發展“AI對齊(AI Alignment)”及評估方法。
他提供了兩種思路。一種思路要從博弈論角度展開,讓AI的行為與人類想法對齊,以人類的利益為主;另一種“更有把握、更徹底”的思路是,設計可證明的安全的AGI(通用人工智能),每一步都符合數學上絕對安全的要求,“凡是有可能出問題的系統大家都不要做”。
技術細節依然艱深,暗藏的安全隱患愈發明顯。
AI對齊,是人工智能安全領域的核心議題,旨在確保AI系統的目標、決策和行為與人類的價值觀、偏好及意圖協調一致。然而在“對齊”這件事上,中國社會科學院學部委員趙汀陽的想法有點兒不一樣。
須發皆白的他,跛著腳走上臺,坐下,第一句話就帶著哲學式的冷峻詰問。“AI需要和人對齊嗎?”聽聞此問,我有些愣住,困意全消。他繼續驚人之語:“人們期望AI要和人的價值觀對齊。我對這個想法是有一些疑問的。地球上的所有‘壞事’都是人類做的,其他生命沒有做過任何超出生物需要的壞事。”
趙汀陽盯著階梯教室里的100余人,笑聲一片,我也笑了。但笑過之后,細細琢磨,他的這番話,更像是一記打向人性的耳光。AI也許是“性本善”的,只不過跟著人類的數據經驗,“照貓畫虎”數年,學了好,也學了壞。
他認為,人類試圖把AI制造成為一種具有主體性的新物種,但這似乎是個自虐性的悖論。
人類既希望AI擁有超能力,去完成人做不了或不想做的事,又擔心AI獲得自我意識后會傷害人類。趙汀陽說,如果人類不教唆AI犯罪,AI應是安全的,對齊人類價值觀的AI,則很可能通過模仿人類而變得危險。
這個邏輯反轉讓我頭皮發麻——原來我們恐懼的,是人性投射在AI身上的影子。
至于設立“AI倫理”,趙汀陽覺得無濟于事。“人類也往往見利就忘義,如果倫理不能必然約束人類自身,又何以能夠約束AI?”他主張,管理AI的關鍵在于人類是否能保有控制AI的能力。
趙汀陽眼里另有一種危險性相對比較低的對齊,是智能對齊。
“就目前智能水平而言,人類相對于AI仍然保有知己知彼的優勢,因此能夠控制AI。”趙汀陽說,但當AI部分經驗能力遠超人類后,人類優勢蕩然無存,AI將成為令人不寒而栗的“他者”,世界將形成二元主體性的格局,而人類與AI的關系將如何,無從知道。
不過,在中國科學院自動化研究所研究員、人工智能倫理與治理研究中心主任曾毅看來,未來的社會可能比二元主體性更復雜。他在隨后的發言中談到自己的設想,未來的社會不僅有人類、動物、超級智能,可能還有模仿狗、植物的類生命體。
那是一個他期待的可持續的共生社會,靠人和超級智能共同構造,而不是靠人類自己。曾毅認為,“所以向人類的對齊確實是不對的,要做超級的聯合對齊。”聯合對齊,這個詞很新鮮,帶著一種“天下大同”的意味。
但他認為,在這樣的社會中,更重要的是,人類的價值觀要演化。
“比如當超級智能未傷害到人類時,可不可以有自己的隱私?”曾毅提出這個問題時,我愣了一下。我從來沒思考過,機器某一天可以有自己的隱私?那意味著,它相對自由、獨立,不再是人類的附庸和工具。
“當人對超級智能說,‘我是你的創作者,你要保護我’時,超級智能可能會跟人說,‘當我看到你,就像你看到螞蟻一樣,你從來不會保護螞蟻,我為什么要保護你’。”曾毅提醒道。
他覺得,人工智能是一面鏡子。“當人工智能騙人,大家都吃驚,說人工智能怎么能騙人呢,太壞了。但是當人騙你的時候你的反應有這么大嗎?恐怕沒有。”在曾毅看來,人工智能的鏡子讓我們看到了人類的缺陷,給了人類演化的機遇。
“人工智能演化慢點沒問題,但如果人類演化太慢了,那是真正的危險。”曾毅說。
說老實話,僅在“人類價值觀演化”層面,我對人類的未來信心不足。一旦AI邁過奇點,超越人類,一切都將不盡如人意。
“作為一個自私的人,我希望人工智能‘性本善’。”曾毅記得,有一次,他在講座中遇到了一位研修佛法者,問他AI能否成佛。他覺得,并非沒有可能,超級智能除了認知超過人類,也可能是超級“利他”的。
聽完曾毅的發言,汪暉說,他腦子里出現了赫爾曼·黑塞(Hermann Hesse)的《玻璃球游戲》中的鏡像,人在多重鏡面看到了自身。“我們都在討論怎么馴化機器,我們也需要討論人與自然、人與物的關系,重新理解人自身。”
上午的論壇結束,我最初的困意早已被沖刷干凈。我合上記了4頁紙的筆記本,感覺腦袋里比來時更“沉重”了。這場論壇,表面上是在探討AI倫理奇點、智能邊界,實際上始終在叩問自詡萬物之靈的人類自己——那個既渴望神力、又恐懼神力的高級動物。
下午的3場分論壇分別圍繞“2100年人類與超級智能的關系”“認識機器:意識、道德與風險”和“奇點前夜:人類如何安身立命”,我選擇了第二場,但沒聽多久,就開始犯困,身邊也有人開始打瞌睡,頭不停地點著,像被陣陣微風拂過的蘆葦。
發言者有一半人說英文,我戴著同聲傳譯器,耳機里不時傳來資本、奴隸、機器、工具等詞匯,每一個字都聽得懂,卻沒有一句能真正進入意識里。我感覺會場的學者離我越來越遠,那些聲音越來越小,有好幾次,我差點兒睡著了,也許是真的太困,也許是腦容量過載了。
中途,我離開昏昏欲睡的會場。有一件更迫切的事等我去做——編輯發來次日可能刊發的稿子,催我修改。在蒙民偉人文樓的大廳里,我找到了一塊插線板,打開電腦,席地而坐,開始忙碌。
神奇的是,一旦回到具體而微的“人類事務”,我的精神很快就清醒了。也許,相比于思考數十年后與AI的關系、厘清機器的倫理邊界、琢磨人類如何安身立命這類宏大的時代命題,此刻的我更在乎如何在當下“安身立命”。
只是腦子里,還隱約回響著那句警言:“如果人類演化太慢了,那才是真正的危險。”
65歲的學者汪暉身著西裝上臺了。他頭發花白,手執講稿,身后的大屏幕上寫著這場論壇的主題:“AI時代的倫理奇點”。這是當下的熱門話題,但臺下有人在打哈欠,顯然清晨的困意未消。
我是一大早,跨越大半個北京城,擠了一個多小時的地鐵來清華大學聽這場“方塘論壇”的,興致很高。一半是因為這跟AI有關,一半是因為嘉賓名單里不只有科學家,還有70歲的趙鼎新、65歲的汪暉、64歲的趙汀陽等。
他們是人文社科領域的“思想老者”,要跟科學家一塊兒探討這個時代最新的燙手命題,這本身就值得期待。針對“時代”,他們論了幾十年,現在仍未停止。
面前的階梯教室沒坐滿,但也匯聚了上百人:學生、教授、學者、記者、作家,還有從美、英、德、意等國請來的嘉賓。空氣里似乎彌漫著一種學術會議特有的、略帶沉悶的氣氛,我揉了揉酸澀的眼睛,吃了口離家時塞進背包的面包,想提振精神,讓沉重的腦袋清醒一些。
“幾乎所有領域,都在經歷系統性的重構。”汪暉主持開場,話語沉穩有力,“回應AI時代的倫理挑戰,不僅需要對技術本身的理解,更需要回到哲學、社會學、政治經濟學、文學、藝術等基礎人文領域,共同探尋人類何以‘安身立命’”。
論壇的擇期頗顯用心,6月23日這天是計算機科學之父、人工智能之父——艾倫·圖靈誕辰113周年;圖靈獎的中國得主、中國科學院院士、清華大學人工智能學院院長姚期智也受邀到場。
人工智能被提出75年了,而AI大規模走入公眾視野不過數年。最新數據顯示,中國生成式AI用戶數量已超3億。用戶數量從0到3億,中國互聯網花了15年,而AI只用了兩年。OpenAI的用戶數量更是在今年4月初就達到了5億。
歷史上從未有一個時代如AI時代這般,將未來如此迅猛地推向當下。時間仿佛被丟入加速器,而AI如氧氣一般,彌漫進社會和人的毛細血管里。智能駕駛、機器人、AI醫生、AI伴侶等,過去數十年來,昔日科幻小說里的事物正步入現實。
當越來越多的人享受著AI帶來的技術紅利、探索新的可能性時,挑戰也如影隨形:失業、偏見、倫理、法律,乃至關乎人類存續的風險。這些問題,讓我覺得既遙遠又真實。
“通用人工智能的能力快速增長,人類是否還有能力管控它?”姚期智是這天的第一個主題發言者。年近八旬的他,聲音不高,但每一個問題,都能戳我一下。
他認為,AI時代的問題,許多是被放大的舊疾,尤其是生存性風險,武器的誕生曾讓人類很焦慮,AI也有這樣的問題,“它變得更危險、更難對付”。
姚期智提到了2024年諾貝爾化學獎得主——因利用AlphaFold(一種AI系統)解決蛋白質結構預測難題而獲獎的戴米斯·哈薩比斯(Demis Hassabis)和約翰·江珀(John M.Jumper)。“這是多年來不可能的事情,也給了我們一些終極希望。”姚期智隨即警示,AI在生物醫學領域的突破,也可能被用來創造“鏡像生命(Mirror life,一種存在于假說中的人工合成生物)”,帶來致命的災難。
2024年12月,《科學》雜志就曾發文呼吁全球暫停“鏡像生命”的研究,優先考慮并防范風險。
另一種生存性風險在于大模型失控。“我們現在制造出來的AI系統,它變得越來越像人。”姚期智指出,已有模型展示出“騙人”本領和對人性的洞察——問題的嚴峻性在于,當它真正像人一樣,甚至超過人時,如何控制。
這也是許多科學家反復警示的人工智能的“控制難題”,現在這個難題比以往任何時候都更迫切地需要答案。我這個人工智能技術領域的小白是沒有答案的,那一刻,我腦子里只閃過許多科幻電影里的失控場景。
從兩年前開始,許多科學家就曾疾呼:至少三分之一AI研發預算要用于確保安全。現實卻是,全球AI安全研究明顯滯后于技術發展。
“現在的大模型還沒有‘囂張’到那個程度,所以還沒有產生毀滅世界的結果,但是長期來講,我們要把這個事管制好。”姚期智強調,安全治理的當務之急是發展“AI對齊(AI Alignment)”及評估方法。
他提供了兩種思路。一種思路要從博弈論角度展開,讓AI的行為與人類想法對齊,以人類的利益為主;另一種“更有把握、更徹底”的思路是,設計可證明的安全的AGI(通用人工智能),每一步都符合數學上絕對安全的要求,“凡是有可能出問題的系統大家都不要做”。
技術細節依然艱深,暗藏的安全隱患愈發明顯。
AI對齊,是人工智能安全領域的核心議題,旨在確保AI系統的目標、決策和行為與人類的價值觀、偏好及意圖協調一致。然而在“對齊”這件事上,中國社會科學院學部委員趙汀陽的想法有點兒不一樣。
須發皆白的他,跛著腳走上臺,坐下,第一句話就帶著哲學式的冷峻詰問。“AI需要和人對齊嗎?”聽聞此問,我有些愣住,困意全消。他繼續驚人之語:“人們期望AI要和人的價值觀對齊。我對這個想法是有一些疑問的。地球上的所有‘壞事’都是人類做的,其他生命沒有做過任何超出生物需要的壞事。”
趙汀陽盯著階梯教室里的100余人,笑聲一片,我也笑了。但笑過之后,細細琢磨,他的這番話,更像是一記打向人性的耳光。AI也許是“性本善”的,只不過跟著人類的數據經驗,“照貓畫虎”數年,學了好,也學了壞。
他認為,人類試圖把AI制造成為一種具有主體性的新物種,但這似乎是個自虐性的悖論。
人類既希望AI擁有超能力,去完成人做不了或不想做的事,又擔心AI獲得自我意識后會傷害人類。趙汀陽說,如果人類不教唆AI犯罪,AI應是安全的,對齊人類價值觀的AI,則很可能通過模仿人類而變得危險。
這個邏輯反轉讓我頭皮發麻——原來我們恐懼的,是人性投射在AI身上的影子。
至于設立“AI倫理”,趙汀陽覺得無濟于事。“人類也往往見利就忘義,如果倫理不能必然約束人類自身,又何以能夠約束AI?”他主張,管理AI的關鍵在于人類是否能保有控制AI的能力。
趙汀陽眼里另有一種危險性相對比較低的對齊,是智能對齊。
“就目前智能水平而言,人類相對于AI仍然保有知己知彼的優勢,因此能夠控制AI。”趙汀陽說,但當AI部分經驗能力遠超人類后,人類優勢蕩然無存,AI將成為令人不寒而栗的“他者”,世界將形成二元主體性的格局,而人類與AI的關系將如何,無從知道。
不過,在中國科學院自動化研究所研究員、人工智能倫理與治理研究中心主任曾毅看來,未來的社會可能比二元主體性更復雜。他在隨后的發言中談到自己的設想,未來的社會不僅有人類、動物、超級智能,可能還有模仿狗、植物的類生命體。
那是一個他期待的可持續的共生社會,靠人和超級智能共同構造,而不是靠人類自己。曾毅認為,“所以向人類的對齊確實是不對的,要做超級的聯合對齊。”聯合對齊,這個詞很新鮮,帶著一種“天下大同”的意味。
但他認為,在這樣的社會中,更重要的是,人類的價值觀要演化。
“比如當超級智能未傷害到人類時,可不可以有自己的隱私?”曾毅提出這個問題時,我愣了一下。我從來沒思考過,機器某一天可以有自己的隱私?那意味著,它相對自由、獨立,不再是人類的附庸和工具。
“當人對超級智能說,‘我是你的創作者,你要保護我’時,超級智能可能會跟人說,‘當我看到你,就像你看到螞蟻一樣,你從來不會保護螞蟻,我為什么要保護你’。”曾毅提醒道。
他覺得,人工智能是一面鏡子。“當人工智能騙人,大家都吃驚,說人工智能怎么能騙人呢,太壞了。但是當人騙你的時候你的反應有這么大嗎?恐怕沒有。”在曾毅看來,人工智能的鏡子讓我們看到了人類的缺陷,給了人類演化的機遇。
“人工智能演化慢點沒問題,但如果人類演化太慢了,那是真正的危險。”曾毅說。
說老實話,僅在“人類價值觀演化”層面,我對人類的未來信心不足。一旦AI邁過奇點,超越人類,一切都將不盡如人意。
“作為一個自私的人,我希望人工智能‘性本善’。”曾毅記得,有一次,他在講座中遇到了一位研修佛法者,問他AI能否成佛。他覺得,并非沒有可能,超級智能除了認知超過人類,也可能是超級“利他”的。
聽完曾毅的發言,汪暉說,他腦子里出現了赫爾曼·黑塞(Hermann Hesse)的《玻璃球游戲》中的鏡像,人在多重鏡面看到了自身。“我們都在討論怎么馴化機器,我們也需要討論人與自然、人與物的關系,重新理解人自身。”
上午的論壇結束,我最初的困意早已被沖刷干凈。我合上記了4頁紙的筆記本,感覺腦袋里比來時更“沉重”了。這場論壇,表面上是在探討AI倫理奇點、智能邊界,實際上始終在叩問自詡萬物之靈的人類自己——那個既渴望神力、又恐懼神力的高級動物。
下午的3場分論壇分別圍繞“2100年人類與超級智能的關系”“認識機器:意識、道德與風險”和“奇點前夜:人類如何安身立命”,我選擇了第二場,但沒聽多久,就開始犯困,身邊也有人開始打瞌睡,頭不停地點著,像被陣陣微風拂過的蘆葦。
發言者有一半人說英文,我戴著同聲傳譯器,耳機里不時傳來資本、奴隸、機器、工具等詞匯,每一個字都聽得懂,卻沒有一句能真正進入意識里。我感覺會場的學者離我越來越遠,那些聲音越來越小,有好幾次,我差點兒睡著了,也許是真的太困,也許是腦容量過載了。
中途,我離開昏昏欲睡的會場。有一件更迫切的事等我去做——編輯發來次日可能刊發的稿子,催我修改。在蒙民偉人文樓的大廳里,我找到了一塊插線板,打開電腦,席地而坐,開始忙碌。
神奇的是,一旦回到具體而微的“人類事務”,我的精神很快就清醒了。也許,相比于思考數十年后與AI的關系、厘清機器的倫理邊界、琢磨人類如何安身立命這類宏大的時代命題,此刻的我更在乎如何在當下“安身立命”。
只是腦子里,還隱約回響著那句警言:“如果人類演化太慢了,那才是真正的危險。”
本文鏈接:http://www.9978217.cn/v-146-2883.html我在AI論壇打瞌睡會錯過未來嗎
相關文章:
醫院實習報告10-22
企業銷售員年終總結09-23
2024年幼兒園班主任班級德育工作總結與反思(九篇)09-21
單位生育證明05-23
離婚協議書簡單版11-16
不酒后駕駛承諾書10-01
檢討書300字08-15
除夕放假通知01-08
家長聽課感受心得體會10-21
說明文的作文300字02-26
我和孫悟空一起遨游太空中考滿分作文01-13
個人違約申請書12-05
校園美景的作文400字11-22
秋天的校園散文11-25
思念個性詩歌句子08-31
月亮詩歌說說08-22
小雪手抄報高難度精美11-26
學校安全的自查報告10-26