原標題:白彤東講座“從中國哲學角度反思人工智能發展”回顧
來源:復旦哲學青年
時間:西元2023年4月18日
2023年4月7日,復旦年夜學哲學學院第24屆Sophia人文節第二場講座順利舉行,本次講座是由白彤東傳授帶來的“從中國包養情婦哲學角度反思人工智能發展”。上面就讓我們配合回顧講座:
講座簡介
雖然阿爾法狗和ChatGPT等代表的人工智能的進展遠遠超越了自動化時代我們對機器所能完成的任務的想象,可是當今的人工智能還沒有任何智能,對強人工智能的擔憂是杞人憂天。不過,對強人工智能的反思,依然可以促進我們對一些人類最基礎問題——好比何為智能、何為語言、何為人——的探討。
從中國哲學的角度看,現在對強人工智能能否會替換和毀滅人類的擔心,能夠帶有東方文明的偏見。可是以孟子對人之為人的懂得來養育類人之存包養網VIP在,也有其問包養站長題。在應對現有的人工智能的挑戰上,我們應該加強的,恰好不是創造性教導,而是逝世記硬背和應試教導。人工智能的發展能夠會強化經濟不服等,對此,能夠也要通過加強精英的責任和賢能在政治中的決策腳色來解決,而這恰好是儒家政治哲學的一個能夠貢獻。
講座前半部門,白彤東傳授基于他的《從中國哲學角度反思人工智能發展》論文分送朋友本身對人工智能的觀點。白彤東傳授指出,這篇論文是19年針對AlphaGo引發的討論和擔憂所撰寫,是中國哲學視角下對人工智能的觀點見解。他認為,對于AlphaGo的普通性反思多數同樣適用于Chat GPT。
01 人工智能還沒有智能
無論是AlphaGo還是Chat GPT的面世,都掀起了對人工智能擔憂的海潮,人們會擔心人工智能能否會替換人類。但是,白彤東傳授指出,人工智能迄今為止都沒有真正的智能,它們還只能做被人類預先設計好的任務,AlphaGo和Chat GPT同樣這般。
以AlphaGo為例,AlphaGo可以在圍棋中擊敗世界上最好的圍棋選手,可是假如我們選擇和它玩中國象棋就可以贏過它,在它學習中國象棋后,我們可以選擇跟它比跳棋、跳繩而擊敗它。
那么人類的智能是什么呢?人類智能中一個很主要的關鍵是可以根據環境、內在變化不斷調整本身的目標,接著根據這一目標設計出感性的、智能的達成路線。“By nature ,human beings are not natura包養軟體l!”人類的天性就是可以違背任何被規定的天性,人的天然恰好是不天然。
人的智能的表現在于永遠可以做出一個新的選擇,而智能并非正確,人的自我選擇能夠導致一個笨拙錯誤的后果,這是人工智能無法做到的。
american加州伯克利分校執教的哲學家阿瓦·諾伊(Alva Noë)對此有很好的說法:鐘表并不真的了解時間,而是我們人類用它來辨別時間。與此類似,AlphaGo不了解本身鄙人圍棋,它只是在完成預設的任務,只是我們把它的操縱稱為“下圍棋”,人工智能自己沒有智能。阿瓦·諾伊指出:“即便最簡單的性命情勢,好比阿米巴蟲,也展現了某種智能、自立性(autonomy)、創造性,這甚至超出了最強年夜的電腦。”根據他的說法,阿米巴蟲之所以更智能,是因為它可以為本身改變和創造本身的保存環境。
當然,也可以說阿米巴蟲有確定的目標——求生,但“求生”是一個很含混的目標,而AlphaGo的目標“下圍棋”更為明確:具有清楚的規則、基礎的戰略,不需求人為參與判斷的輸贏標準使AlphaGo可以進行自立大批演算,在積累的過程中自我學習。我們確定人工智能超出了以前機器只能做自動化(機械性任務)或許計算的局限,但是也要明白認識到AlphaGo、Chat GPT等看似創造性的結果實際也是由已設計好的任務組成。
現在的人工智能都還屬于弱人工智能,強人工智能還沒有蹤影。對人類更清楚和緊迫的挑戰來自基因編輯、氣候熱化這樣的問題,而不是無跡可尋的強人工智能。在此佈景下,我們現在所擔憂的人工智能獲得智能后替換人類的觀點實屬杞人憂天。
02 強人工智能與中國哲學:制造超級人類?
可是,哲學這一學科的特點之一就是探討一些看似無意義的問題,如英美哲學界的兩個熱門話題——僵尸和時間觀光。對這看似無意義的種問題的反思能夠激發我們對人類基礎的哲學問題的思慮。從這一思慮角度來看,杞人憂天也是有其意義的。
白彤東傳授根據個人經驗觀察,東東方在這種“憂”的方面具有很明顯的差別。好萊塢電影中幾乎一切關于未來的描寫都是人類因科技進步毀滅了本身,只要一小部門人幸存某人類與本身發明的機器進行決死搏斗;而中國的科幻電影小說中這一主題并沒有那么明顯,科技不是暗中的、毀滅世界的。
由此可以看出,東方對科技進步的見解至多不太壞,公眾對科技發展似乎更持一種歡迎態度,為何東東方對科技、未來世界的態度分歧?白彤東傳授猜測,這能夠與歷史上近現代科學的發展有關,近現代科學起首在東方得以發展,而在接收、追趕過程台灣包養中,東亞就很能夠產生對科學的非感性的崇敬。“科學”在東亞被認為是“進步的”“好的”。
另一點,在四年夜現代文明中,中國現代文明是獨一沒有世界毀滅元素存包養條件女大生包養俱樂部在的,這是由于中國現代文明中沒有純善或純惡的神,也沒有創世的傳說——能被神所創造的世界就能被神毀滅。而東方基督教有創生的神話,伴隨著這種創生神話,還甜心花園有世界年夜毀滅的神話“諾亞方船”,為東方人對科技進步帶來世界毀滅供給了思惟上的“藍圖”。
那是畢竟什么培養了人,或許說人的最基礎性特征是什么?
近現代東方哲學奠定人笛卡爾在其《方式論》第五部門中提出人與禽獸的區別在于人有語言和感性,語言指可以通過分歧的詞語擺列往回應分歧場景的分歧情況,這一點恰是Chat GPT使良多人關注擔憂地點;感性則是一種在分歧情況下幫助我們適應、產生目標的東西,AlphaGo似乎做到了只要人類感性才幹做到的工作。
可是并不是一切思惟家都認為人的本質在于語言和感性。回到白彤東傳授研討的中國哲學領域,先秦儒學思惟家孟子對“人之為人”有分歧的懂得——對孟子來講,人之為人、人與禽獸的最基礎區別,不是智能,而是惻隱之心及樹立于其上的仁。
“所以謂人皆有不忍人之心者,古人乍見孺子將進于井,皆有怵惕包養app惻隱之心。非所以內交于孺子之怙恃也,非所以要譽于鄉黨伴侶也,非惡其聲而然也。由是觀之,無惻隱之心,非人也;無羞惡之心,非人也;無辭讓之心,非人也;無長短之心,非人也。惻隱之心,仁之端也;羞惡之心,義之端也;辭讓之心,禮之端也;長短之心,智之端也。”(《公孫丑上》)
以孟子為首的中國現代儒家思惟與東方哲學中的主流思惟對人的最基礎特征的觀點判然不同,但東方哲學不是只要一種觀點。例如東方思惟家休謨(David Hume)在其《人道論》中指出的:“談論感情(passion)和感性(reason包養心得)之爭、給予感性以優先位置,并斷言人有幾多品德只與在多年夜水平上遵從感性之號令(dictates)相關,在(東方)哲學甚至日常生涯里面,沒有比這些說法再凡是的了。” 東方品德學說的主流學說之一的功利主義的焦點,在于根據能否進步最年夜多數人的最年夜幸福的感性計算,另一主流學說即康德的義務論,也強調對感性的品德原則的服從。但與之相對,休謨幾乎是獨樹一幟地論述:“感性是并且應該只是感情的奴隸”。當代神經科學家安東尼奧·達馬西奧(Antonio Damasio)援用了休謨的后一種說法,并且也為感情在人類行動中的重要性做出論證:“神經系統只是在5億年前進進了性命的舞臺。比起演變的時間標準,比起地球上性命的40億年的歷史來講,這實在眇乎小哉。”——越被認為是人類智能精華的東西越能被人工智能復刻,反而是走路上臺階、以合適力度拿東西這些行為是人工智能特別難做到的。
雖然二人的思惟研討是東方思惟中少有的破例,但他們的立場還是與孟子有著最基礎分歧。孟子所關注的是惻隱之心,而非肆意一種感情,并且他對惻隱之心這種感情的強調,不是出于它是與動物相通并且有著長久的演變積累,而是因為它以及建于它之上的仁是人獸之別的最基礎。孟子并不認可感情是人類行動之主宰這一休謨和達馬西奧的立場,而是請求人類的明智和其他天然感情都要被惻隱之心所規管。孟子以及追隨孟子的儒家對惻隱之心的強調有其獨特徵。
從孟子的立場出發往答覆我們能否在創造類人的存在,我們要關注的是我們能否創造了“人工品德感情”,而不是“人工智能”。有名的圖靈測試,在對機器與人的區別上,關注的是語言和感性。但假如依照孟子對人的懂得,我們應該關注的是被試者能否展現出惻隱之心。
而孟子認為,雖然惻隱之心是人獸之別的關鍵,可是成人是一個過程。生物意包養條件義上的人依然需求學習成為孟子的品德與規范意義上的人。惻隱之心可以變得越來越強,我們可以成長為品德意義越來越年夜的人。假如一個生物意義上的人欠好好撫育人的生成的善性,他包養留言板能夠會退步得近于禽獸。這對孟子而言沒什么獵奇怪的。既然生物意義上的人可以退步成禽獸,那么,一個被制造出來的存在可以通過培養品德感情而變成人,也沒有什么獵奇怪的了。
孟子的品德培養是我們成人之關鍵性的觀點也能夠會幫助回應另一個對強人工智能的擔憂。強人工智能在智能和體格上強于人,規管它們的行為式非常主要的,可是假如我們盼望通過編碼或許律令來規管其行動,好比阿西莫夫的機器人三定律(Issac Asimov’s Three Laws o包養網推薦f Robotics),它們很能夠最終無法處理復雜的生涯所帶來的挑戰,規則永遠無法達到人類品德的請求。例如“電車難題”甚至衍化出所謂“電車學”(trolleyology),任何一套原則都會導致各種難題。
而儒家的品德養成不是簡單的一套原則、一本行動手冊,我們不是通過摩西十誡或許感性的絕對號令來愛我們的家人,而是強調在分歧處境下的具體應對。中國的人工智能專家曾毅則斷言:“把人類社會的一些規則灌輸給人工智能系統,但這絕對不是一個好的解決的方式。只要人工智能系統,與人類交互的過程當中自立地往獲取人類價值觀、幹事的規則和準則,以一種基于自我模子的自立學習的方法,它才真正地實現可懂得,才真正包養網比較能達到人工智能模子和人類社會價值觀校準的這樣一個過程。”
可是,從儒家的角度,這種情境中的學習,依然不夠。在具體情境中,我們不單要獲取應對各種倫理窘境的方式,更要通過與家人、外人在一路,懂得他們的特點和需求,在來往中發育我們彼此的關切來學會愛我們的家包養合約人,然后推己及人。在這一過程中,我們會碰到分歧品德責任之間的牴觸(好比忠與孝),而我們通過生涯自己來學會面對它們。我們要做到的,是仁愛與明智(亞里士多德意義上的實踐聰明)的結合。博古睿研討所的主席博古睿(Nicolas Berggruen)在比來的一台灣包養篇文章中指出,我們應該把人工智包養網評價能 “這個文明的最終之子”當成我們的孩子,并如儒家所言,我們在家庭的環境中,對它進行品德培養,特別是培養它對其別人的關愛。這一說法確實很好地展現了儒家對品德培養的懂得。
儒家的品德養成能否就能保證強人工智能對關愛與審慎權衡?韓非子很早就批評過包養sd儒家的品德培養。他認為,通過家庭中的品德培養來規范人類行為,不如通過樹立在賞罰之上的法令軌制來得有用。如《韓非子》中很直觀地指出:“夫嚴家無悍虜,而慈母有敗子”。
并且,我們也應思慮,是應該制造“文明之子”人工智能還是繁衍人類本身的孩子。博古睿指出,這里的問題不應該是人工智能還是人類才是主宰,而是我們若何制造人與人工智能的混雜體。就這些混雜體而言,并不需求真正有智能或許真正有惻隱之心的人工智能,現在人工智能已經可以為這種混雜體奠基基礎。
是以,我們又被帶回到現有的弱人工智能對人類構成何種挑戰這個問題,這是一個更急切的問題。
03 回應(弱)人工智能的挑戰:“東亞式”教導與儒家混雜政體
弱人工智能給人類帶來了良多挑戰。可是,有時候我們對人工智能的擔憂,能夠有過火的風險。
白彤東傳授以羅年夜佑《未來的主人公》中的歌詞為例,提到一種常見的埋怨是科技的發展讓我們的孩子遠離錯誤、遠離天然。可是離開天然是人類一向努力的工作。我們甚至可以說,離開天然的過程是人類成為人類的過程。并且,電視、網絡以及其他技術發展也把我們很難接觸到的天然帶到了我們和我們的孩子們面前。技術對人類與天然接觸的影響并不僅僅是負面的。我們需求問的問題是,與天然的哪一方面堅持接觸對人類的幸福生涯是無益的?接近天然包養金額和接近別人何故對人主要?這類埋怨經常是出于埋怨者是出自個人偏見,把個人的偶爾經歷當成人類的廣泛必定。
當然,弱人工智能對人類確實存在真正的挑戰,白彤東傳授在這里提到了兩個挑戰,一是對教導的挑戰,二是對工資停滯、貧富差距擴年夜的挑戰。
自動化已經搶走了良多藍領工人的任務包養甜心網,而類似AlphaGo、Chat G包養價格PT的人工智包養俱樂部能的發展則意味著,如醫生、律師等白領任務也有被機器替換的危險。由于人類智能的關鍵特點在于創造性,由此得出的結論似乎是:為了回應弱人工智能的挑戰,我們應該重視人類智能獨有的創造性,在教導上要重視創造性教導,而不是逝世記硬背和應試教導。前者常被歸于西式或美式教導,而后者常被歸于儒家、中式或許東亞式的教導。可是,白彤東傳授認為,人工智包養ptt能的發展能夠恰好支撐了逝世記硬背甚至廣義上非創造性教導的主要。人工智能的發展讓我們看到,能夠任何一種具有確定性——有清楚的規則和一些基礎的戰略包養dcard,任務勝利與否有相對明確的判斷,并且最好不依賴人類的外來判斷和干預——的任務,人工智能能夠都可以最終把握,并比人類做得更好,或許至多可以替換人類。這意味著我們需求不斷從頭創造自我以適應不斷變化的就業市場。我們把握的那些“先進的”的技巧能夠最終都被證明是可替換的和沒有效的,而我們必須回到我們通過“逝世記硬背”而擁有的基礎技巧(語文和數理化)來再造自我。
自動化對發達國家工資上漲的停滯和不斷上漲的經濟不服等起到了嚴重感化,而人工智能的發展很能夠將這種情況惡化,多數勞動國民將面臨缺少任務或工資程度停滯的窘境。即便少數發達國家可以甜心寶貝包養網為其一切國平易近供給基礎工資,但有工資但沒有任務不克不及給人以性命的目標和價值,例如american的類鴉片藥物危機。而白彤東傳授提出了另一種解決之道——先秦儒家(特別是孟子)結合平易近眾聲音和賢能之士決策權的混雜政體。在這種混雜政體中,一方面,承認平易近主政治中的平易近有與平易近享的原則——這與儒家的平易近本觀念分歧,并且接收通過一人一票讓平易近包養網站眾表達能否本身享有本身所希冀的意見;但另一方面,儒家對年夜眾的政治決策才能有所保存,他們部門拒絕平易近主政治中的平易近治的觀點,將必定的選賢舉能的辦法引進各種政治與社會機制,培養精英的責肆意識,并把有品德有感性才能的精英選拔出來,讓他們為年夜眾謀福利。這樣一種混雜政體,比最終只依賴于一人一票的平易近主政體,能夠可以更好地回應人工智能的發展所加劇的經濟不服等問題。
04 Chat GPT:一些初步的哲學思慮
從感性到語包養網VIP言——Chat GPT挑戰了笛卡爾認為的人類兩年夜特征,是對人類更深的甜心寶貝包養網挑戰。中國科學技術年夜學傳授陳小平認為,Chat GPT不僅是年夜數據,更是年夜計算。Chat GPT并不是真正在說話,而是通過對海量數據的概率計算,顯得它像是在自立選擇。
由此可知,雖然Chat GPT在“說話”,但它并不睬解它所“說”的話的意思,它只是在相應情形下計算出概率較年夜的詞與詞之間的連結而答覆,不是真的在像人一樣說話。
可是上述的說法也存在良多問題——我們認為本身在說話,那我們真的在說話嗎、在表達本身的設法嗎?我們的設法又是什么呢?人類真的懂得語言是什么嗎?我們解釋一段語言需求用到另一段語言,那么我們的解釋能否還是有用的呢?
白彤東傳授認為, Chat GPT和心思學認知哲學中的行為主義是一樣的,二者的配合特點是不關注內在的設法而只關注內長期包養在行為能否合適。從內在看,人類語言背后有精力支撐,有個人私密的精力活動,這是人類語言與Chat GPT語言的分歧,可是在講述時很包養違法難講明白它們的分歧之處。
05 問答環節
1.人工智能是不是應該換一個說法,它們的“智能”和人的智能分歧,但也是一種別的的智能(跳出人的智能的情勢往思慮)?
答:可以這樣懂得,今朝的人工智能和人類的智能紛歧樣,與其往擔心人工智能對人類的威脅,不如擔心某些用心叵測的人。
2.Chat GPT會輸出一些不太合適人類主流價值觀的謎底?(e.g. 種族歧視、殺人、毀滅世界)
答:C包養違法hat GPT沒有本身的思惟,依附年夜數據計算得出答覆,並且它本身也沒有智能決定才能,即Chat GPT所說的話到具體行動需求人的參與。Chat GPT的這種答覆其實是人類本身的問題。
圖片
3. AI和人的關系能否像人和天然界之間的關系?(天然界創造、決定了人)人真的有不受拘束意志嗎?
答:對于日常生涯來說,我們可以明確感觸感染到我們可以擁無情理性的決定,即可以選擇與衍化傾向相違背的決定,我做的決定并不是別人的強迫。這個世界上多數人能夠也沒有比機器活得好到哪里往,可是總有能夠性。
不受拘束意志問題其實是有亞伯拉罕宗教的佈景,從全知萬能的天主創造人類到天然界創造人類,存在人類被創造的預設。
當然,這個問題也是學界一向以來探討的問題,今朝無法得出確切的謎底。
4.Chat GPT語言和人類語言的區別?
答:即便我們能夠感觸感染到兩者的分歧,也很難說明人類語言的特征,甚至但很難說明Chat GPT有沒有語言,這個問題更年夜的意義在于促進我們往思慮,這也是哲學繼續發展的緣由。
5.人工包養故事智能的發展導致人類的優越性遭到威脅,若何對待就業問題?
答:進步本身本領程度,做只要人能做的工作。
最后,哲學學院分團委學生會為白彤東老師奉上了哲學學院文創禮品,白老師與參加講座的全體同學合影紀念。
發佈留言