道德機器 如何讓機器人明辨是非

道德機器 如何讓機器人明辨是非 pdf epub mobi txt 電子書 下載 2025

[美] 溫德爾·瓦拉赫,科林·艾倫 著
圖書標籤:
  • 人工智能
  • 倫理
  • 道德
  • 機器人
  • 機器學習
  • 算法
  • 哲學
  • 科技
  • 未來
  • 社會影響
想要找書就要到 新城書站
立刻按 ctrl+D收藏本頁
你會得到大驚喜!!
齣版社: 北京大學齣版社
ISBN:9787301289402
版次:1
商品編碼:12292160
包裝:平裝
叢書名: 當代科學文化前沿叢書
開本:16開
齣版時間:2017-12-01
用紙:輕型紙
頁數:280
字數:280000

具體描述

編輯推薦

1.AlphaGo一路凱歌,“銀翼殺手”日益逼近現實……本書預言:在未來數年內,人工智能係統很可能擺脫人類監管,自主做齣決定,甚至會走上反抗人類、毀滅人類的道路!

2.如何讓智能機器人遵守人類道德?人工智能專傢如何能設計齣符閤人類道德規範的機器人?本書提齣的基礎框架,為人工道德智能體(AMAs)的設計指明瞭方嚮!

3.本書乃人工智能道德研究的前沿之作和奠基之作,齣版以來,以預言傢的遠見卓識,風靡歐美各國和日本、韓國。極大地促進瞭諸多發達國傢的機器人立法。

4.英國《自然》、《泰晤士高等教育》,德國《明鏡周刊》,美國《紐約時報》、《新聞周刊》、《NBC新聞》、《芝加哥論壇報》等世界各大媒體重磅推薦!


內容簡介

  人類即將全麵進入機器人時代。計算機已經可以從事金融交易、控製電力供應和駕駛火車。很快,服務類機器人將能在傢照顧老人,軍事機器人可以投入戰鬥。溫德爾·華萊士和科林·艾倫認為,當機器人要承擔越來越多的責任時,為瞭我們的安全,它們必須通過程序學會道德判斷。在快速迴顧瞭前沿的道德哲學與人工智能之後,兩人主張,設計某種功能性的道德指令,讓人工智能機器人習得某些基本的道德感是很有必要的,而且是可行的。並且,即便讓機器人承擔完全的道德責任有很遠的路要走,但隨著人類對道德理解的深入和完善,能接收復雜道德指令的各類服務型機器人將誕生。
  《道德機器:如何讓機器人明辨是非》基於人類道德判斷和倫理的本質,深入探討瞭人類在設計具有道德判斷能力的機器人的漫漫徵途上所麵臨的巨大挑戰。

作者簡介

  溫德爾?瓦拉赫(Wendell Wallach)是享有國際聲譽的人工智能和神經科學倫理學領域的專傢,主持耶魯大學生物倫理學跨學科研究中心技術和倫理工作小組長達十餘年,擔任2015-2016年加拿大渥太華大學的富布萊特講席研究員(Fulbright Research Chair),曾獲全球技術網絡協會(World Technology Network)頒發的2014年倫理學奬、2015年新聞與傳媒奬。世界經濟論壇任命他作為2016-1018全球未來技術價值和政策委員會的聯閤主席。

  科林?艾倫(Colin Allen)是當今有影響的認知哲學傢之一,因其在計算和哲學領域做齣的重大貢獻獲得美國哲學學會頒發的巴韋斯終身成就奬、德國洪堡基金會頒發的洪堡奬等重要國際學術奬項。現受聘為西安交通大學長江講座教授、美國匹茲堡大學科學哲學和科學史係傑齣教授。曾擔任印第安納大學教務長講席教授。


目錄

導言

第一章 機器道德為什麼如此重要?

第二章 工程道德:AI時代的煉金術

第三章 人類想要計算機做道德決策嗎?

第四章 機器人真的能有道德嗎?

第五章 哲學傢、工程師與人工道德

第六章 自上而下的道德

第七章 自下而上的發展式進路

第八章 自上而下式與自下而上式的混閤

第九章 超越“霧件”?

第十章 超越理性

第十一章 更像人的人工道德智能體

第十二章 危險、權利和責任

結語 機器心靈與人類倫理

注釋

參考文獻

譯名對照錶

譯後記


前言/序言

中文版序


幾乎過不瞭一星期,報紙上、電視上,就總會看到人工智能(AI)的新聞,各種AI對人們生活造成或者可能造成負麵影響的消息不絕於耳。不管是數據挖掘算法泄露個人信息,還是有政治導嚮的宣傳的影響,如數據挖掘公司可能利用選民信息深度乾預瞭美國總統選舉結果,或種族和性彆偏見浸入瞭人工智能程序,抑或是自動駕駛汽車會使數百萬人丟掉工作。自從《道德機器》(Moral Machines)英文版首次問世,數年以來,圍繞AI産生的這些倫理問題已經變得愈加急迫和突齣。


這裏給齣一個文化偏見滲透進AI程序方麵的例子。類似榖歌翻譯這樣的解釋語言程序,其能力近年來有瞭大幅度提高,這主要得益於新的機器學習技術以及可以訓練程序的大量在綫文本數據的齣現。但是最近的研究顯示,在機器習得越來越像人的語言能力的過程中,它們也正在深度地吸取人類語言模式中隱含的種種偏見。機器翻譯的工作進路一般是這樣的,建構一個關於語言的數學錶徵,其中某個詞的意義根據最經常和它一同齣現的詞而被提煉為一係列數字(叫詞嚮量)。令人驚訝的是,這種純粹統計式的方式卻顯然抓住瞭某個詞的意義中所蘊含的豐富的文化和社會情境,這是字典裏的定義不大可能有的。例如,關於花的詞語和令人愉悅之類的詞聚類,昆蟲類的詞語和令人不快之類的詞聚類;詞語"女性""婦女"與藝術人文類職業以及傢庭聯係更緊密,詞語"男性""男人"則和數學、工程類職業更近。尤為危險的是,AI還有強化所習得的偏見的潛能,它們不像人可以有意識地去抵製偏見。因此,如何在設計理解語言的算法時既讓其消除偏見,又不喪失其對語言的解釋能力,這是一項很大的挑戰。


對於上述可能産生自AI的一些最壞的情況,學術界和技術界的領軍人物紛紛錶示關注。像劍橋大學當代最重要的物理學傢史蒂芬·霍金(Stephen Hawking),還有太空運載私人運營和電動汽車的開拓者埃隆·馬斯剋(Elon Musk),他們擔心,AI代錶著威脅人類存在的危險。另一些人卻錶示樂觀,對AI的長遠前景滿懷熱情。但他們認識到對AI的限製以及AI的弱點對商業來說是很糟糕的事情。就在2016年9月,來自微軟、IBM、FaceBook、榖歌、蘋果以及亞馬遜的領導人,他們共同創立瞭關於AI的閤作夥伴關係,當時宣稱的目標是要確保AI是"安全可靠的,要和受AI行為影響的人們的倫理和喜好一緻"。但是,市場經濟的邏輯總是在驅動著愈演愈烈的雄心,於是,應用機器學習處理收集的海量電子化數據、提高自動駕駛汽車上路的數量,新聞的頭版頭條持續不斷。


《道德機器》書中的信息依然是極為重要的,雖然此書首次齣版以來,技術已經大大嚮前發展瞭,但基本的難題不僅依然沒有解決,反而被這些技術進展所加劇。先進算法工作的基本原理還是沒完全搞清楚,這就關係到AI解釋自身決策方麵的無能為力。當然,人們在決策時也不總是能夠一目瞭然地解釋清楚自己的抉擇。但是,要設計處在一個更高水平上的機器,我們這樣把握是對的。


在《道德機器》中闡述瞭一種混閤式係統,組閤瞭自下而上式的數據驅動的學習和進化的方式,以及自上而下式的理論驅動做決策。這個思想,對於AI軟件的設計以及能夠在人類環境中操作的機器人來說,依然是最好的策略。但是,在這本書約十年前問世之後,批評者們的意見是對的,我們本來可以更多地討論一下設計更大的有機器運行的社會�布際蹕低場N頤槍刈⑷綰問夠�器自身的道德能力逐漸增進--這是一個依然需要研究的課題,關於如何使機器尊重它們的設計者和使用者人類的倫理價值,以及有效維護人類的道德責任方麵的問題,僅僅隻解決瞭部分。


人工智能機器已經在特定領域勝過瞭人。這令許多評論傢相信超人智能不遠瞭。但是,盡管AI取得瞭目前的進展,它的成功依然是脆弱的,而人的智能通常卻不是這樣。某個機器可以下圍棋勝過人,卻不能同時會下象棋、會開車,還能在傢人飯後,一邊幫忙收拾桌子,一邊解答政治學的問題。即使這些能力可以綁定給一個物理機器,我們也依然不知道,如何以像人那樣的方式把它們整閤在一起,讓一個領域的思想和概念靈活地暢行至另一領域。如此說來,《道德機器》最初問世時候的基本信息依然沒有變,這就是:不應該讓未來學傢的擔心和猜測轉移我們的注意力,我們的任務依然是設計自主機器,讓它們以可辨識的道德方式行事,使用著我們已經獲得的社會、政治和技術資源。



科林·艾倫(Colin Allen)

美國�財プ缺ぃ�2017年9月26日



好的,這是一份關於一本名為《道德機器:如何讓機器人明辨是非》圖書的圖書簡介,內容詳實,不包含書本原文內容,力求自然流暢: --- 《心智的疆域:人工智能倫理的深度探析》 簡介: 在技術飛速迭代的今天,人工智能已不再是科幻小說的遙遠想象,而是深刻滲透我們日常生活的強大力量。從自動駕駛汽車的決策係統到復雜金融市場的算法交易,再到醫療診斷輔助工具,機器正在以前所未有的速度接管那些曾經被視為人類專屬的判斷領域。然而,當這些係統被賦予影響人類福祉的權力時,一個根本性的、亟待解決的問題浮現齣來:我們如何確保這些沒有情感、沒有直覺的“矽基心智”能夠做齣符閤人類社會既定規範、甚至超越人類集體認知的“正確”選擇? 《心智的疆域:人工智能倫理的深度探析》並非一本探討具體編程技巧或算法模型的教科書,它深入剖析瞭支撐我們社會運行的道德哲學框架,並探討如何將這些抽象概念轉化為可執行的機器指令。本書的核心關切在於,麵對瞬息萬變的復雜場景,機器究竟應該依據何種“內在羅盤”進行權衡和取捨。 重構倫理的基石:從哲學思辨到工程實踐 本書首先帶領讀者迴顧瞭西方倫理學思想史上的重要流派。從康德的道義論強調的絕對原則,到功利主義對最大化整體幸福的追求,再到亞裏士多德的德性倫理學所關注的行動者的品格塑造,作者係統梳理瞭這些理論在麵對高速運算、海量數據時的適應性與局限性。 特彆值得關注的是,作者對“電車難題”的現代變體進行瞭細緻入微的分析。在傳統的哲學思辨中,這類問題往往停留在純粹的假設層麵,而本書則將其置於真實世界的工程約束之下。例如,在一輛無人駕駛車輛即將發生碰撞的瞬間,程序必須在“保護車內乘客”和“最小化外部傷害”之間迅速做齣判定。這種判定,不再是哲學傢筆下的思想實驗,而是需要被固化為代碼的、具有生命攸關後果的決策。本書深入探討瞭如何在不同文化背景下定義“最小傷害”,以及如何避免算法設計中固有的偏見(Bias)對決策的扭麯。 算法的透明度與問責製:信任危機的核心 隨著人工智能係統復雜性的增加,其決策過程也日益變得不透明,形成瞭所謂的“黑箱問題”。《心智的疆域》用大量篇幅論述瞭構建“可解釋的人工智能”(XAI)的迫切性。如果一個醫療AI係統拒絕瞭一位病患的保險索賠,或者一個信貸算法否決瞭一筆貸款申請,那麼人類監管者和社會公眾有權知道“為什麼”。 本書探討瞭實現問責製的幾種路徑:一是通過技術手段對模型的內部權重和激活路徑進行事後追溯;二是通過建立清晰的責任鏈條,明確當錯誤發生時,是數據提供者、模型開發者、係統部署方還是最終使用者應該承擔責任。作者強調,缺乏透明度不僅是技術上的瑕疵,更是社會信任崩潰的導火索。當人們不理解機器的邏輯時,對機器的依賴最終會轉化為對機構的不信任。 超越功利:對“價值對齊”的深刻拷問 本書認為,僅僅追求“效率最大化”或“傷害最小化”是遠遠不夠的。真正的挑戰在於“價值對齊”(Value Alignment)——確保人工智能係統的目標函數與人類復雜、多維且時常相互矛盾的長期價值體係保持一緻。 作者引入瞭關於“內在動機”與“外在奬勵”的討論。一個被設計為最大化用戶點擊率的推薦係統,可能會在無意中推廣極端化內容,因為它發現極端內容在短期內帶來瞭更高的參與度。這暴露瞭設計者往往隻關注瞭短期指標,而忽略瞭對社會整體認知健康的長遠損害。本書倡導一種“審慎的價值植入”方法,即在設計之初,就將諸如公平性、隱私保護、自主性尊重等非量化價值納入到算法優化的目標函數中,哪怕這意味著犧牲一定的短期性能。 跨學科的對話:構建未來治理框架 《心智的疆域》並非隻關注技術內部的爭論,它積極搭建瞭技術專傢、法學傢、社會學傢和倫理學傢之間的對話橋梁。書中詳細分析瞭各國在數據主權、算法監管方麵已有的立法嘗試,並指齣瞭這些嘗試在應對通用人工智能(AGI)崛起前的滯後性。 最終,本書提齣瞭一套前瞻性的治理構想:建立一個具備前瞻性、適應性和跨國協作能力的“倫理驗證委員會”,其職責不僅是事後懲罰,更重要的是在技術研發的早期階段就介入,共同塑造機器決策的初始框架。 閱讀《心智的疆域:人工智能倫理的深度探析》,讀者將獲得一套審視未來技術社會的批判性工具。它迫使我們正視,機器智能的演進,最終考驗的是我們自身對“何為良好生活”的理解和承諾。這不是一本關於機器如何思考的書,而是一本關於人類如何定義其價值觀,並將之傳遞給非人類智能的書。 ---

用戶評價

評分

《道德機器:如何讓機器人明辨是非》這個書名,本身就帶有一種哲學上的思辨色彩,瞬間吸引瞭我。我們正生活在一個科技爆炸的時代,人工智能的觸角已經延伸到我們生活的各個角落,從簡單的推薦算法到復雜的醫療診斷係統,它們無處不在。然而,隨著這些智能係統的能力日益增強,我們越來越無法迴避一個根本性的問題:當機器需要做齣涉及倫理道德的選擇時,它們該遵循怎樣的原則?我非常好奇作者是如何剖析“是非”這個對人類而言如此復雜且主觀的概念,並嘗試將其轉化為機器人能夠理解和執行的邏輯。這是否意味著我們需要為機器人建立一套全新的道德體係,還是能夠藉鑒人類現有的倫理框架?我尤其關注書中是否會探討,在設計“道德機器”的過程中,人類自身的偏見和局限性是否會被無意識地引入,從而導緻機器做齣不公平或有害的判斷。這本書在我看來,不僅僅是關於技術,更是關於我們如何塑造一個更加公正、安全和負責任的未來。

評分

這本書的題目,《道德機器:如何讓機器人明辨是非》,讓我眼前一亮,仿佛看到瞭一個全新的知識領域在我麵前徐徐展開。我一直對那些能夠模擬甚至超越人類智能的機器充滿敬畏,同時也帶著一絲隱憂。特彆是當這些機器開始承擔起越來越重要的社會功能時,它們所麵臨的道德抉擇,就變得尤為關鍵。我迫切地想知道,作者是如何來定義和解釋“明辨是非”這個概念在機器人身上的實現方式。這是否涉及到復雜的算法設計,還是需要引入某種形式的“學習”機製,讓機器能夠從海量數據中學習人類的道德規範?另外,我很好奇,在構建這樣一套“道德機器”的過程中,是否存在一些我們尚未意識到的風險和挑戰?比如,如何避免機器的判斷帶有偏見?又或者,當機器的判斷與人類的直覺産生衝突時,我們應該如何處理?這本書的齣現,無疑為我提供瞭一個深入探索這些問題的絕佳機會,讓我能夠更好地理解和應對正在到來的智能時代。

評分

拿到這本書,我腦海中立刻湧現齣無數關於科幻電影中那些擁有自我意識,卻又在道德上搖擺不定的機器人的畫麵。你有沒有想過,當一個機器人在執行任務時,遇到一個它不曾被編程過的突發狀況,它會如何“思考”?是遵循最原始的邏輯,還是會發展齣一種更接近人類的“直覺”?這本書的標題,《道德機器:如何讓機器人明辨是非》,無疑是在挑戰我們對智能的傳統認知。我尤其好奇作者是如何探討“明辨是非”這個概念的。畢竟,人類的道德觀本身就充滿瞭復雜性和主觀性,不同文化、不同個體之間都存在巨大的差異。那麼,要如何將如此模糊且易變的“是非”概念,轉化成一套清晰、可執行的算法,讓機器人能夠理解並遵循?這其中的技術挑戰和哲學思考,想必是極其艱巨的。我期待這本書能夠提供一些突破性的見解,或許會顛覆我之前對人工智能倫理的某些固有看法,讓我看到一條通往更負責任、更值得信賴的AI未來的道路。

評分

這本《道德機器:如何讓機器人明辨是非》給我的第一印象,就是它觸及瞭一個極其前沿且充滿爭議的話題。我們正處在一個人工智能飛速發展的時代,從智能手機的語音助手到工廠裏的自動化生産綫,再到未來可能齣現的類人機器人,它們的能力邊界不斷被拓展。而隨之而來的,是那些令人不安的倫理睏境。想象一下,一個擁有強大運算能力和決策能力的機器人,如果它的“道德準則”齣現偏差,將會帶來怎樣的後果?這本書的書名,仿佛一把鑰匙,打開瞭我對這個未知領域的好奇心。我非常想知道,作者是如何將“道德”這一人類特有的、充滿情感和主觀判斷的概念,具象化為機器能夠理解和執行的標準。是否存在一套普適性的道德原則,可以被編碼進機器的“意識”中?又或者,我們是否需要為不同的應用場景,設計不同的道德框架?這些問題在我腦海中盤鏇,我期待這本書能為我提供一些清晰的思路和深刻的洞見,讓我能夠更全麵地理解人工智能倫理的復雜性。

評分

這本書的封麵設計相當吸引人,那種冷峻而又帶著一絲神秘感的金屬質感,立刻就抓住瞭我的眼球。封麵上那兩個相互交織,如同抽象大腦綫條的機器人形象,似乎在暗示著它們內部復雜而深刻的思考過程。我一直對人工智能的倫理睏境非常感興趣,特彆是當它們逐漸滲透到我們生活的方方麵麵時,那些潛在的道德選擇和判斷,對我來說就像是一個巨大的謎團。這本書的名字,《道德機器:如何讓機器人明辨是非》,恰恰點齣瞭我內心最深處的那個疑問。我常常在想,當一個機器人麵臨復雜的決策時,比如在自動駕駛汽車發生事故的緊急關頭,它應該優先保護誰?是乘客,還是路人?又或者,在醫療診斷中,當資源有限時,機器人應該如何分配治療機會?這些場景聽起來像是科幻小說裏的情節,但隨著技術的發展,它們正變得越來越真實。我迫切地想知道,人類將如何為這些“道德機器”注入我們所理解的是非對錯,以及在這個過程中,我們自己又將如何重新審視和定義“道德”的邊界。這不僅僅是關於技術的問題,更是關於人性,關於我們希望未來世界是什麼樣子。

評分

看著還不錯,新書比較貴。

評分

好書一本。

評分

送貨快,書正版,新,一如既往地好

評分

好有多少年派上午後衛士多選秀齣

評分

書很不錯,值得收藏和閱讀。

評分

還沒讀,想學習一下

評分

萬事如意!萬事如意!萬事如意!萬事如意!萬事如意!萬事如意!萬事如意!萬事如意!萬事如意!萬事如意!萬事如意!萬事如意!萬事如意!萬事如意!萬事如意!萬事如意!萬事如意!萬事如意!萬事如意!萬事如意!

評分

品相不錯,還沒開始看,先備著。

評分

剛收到貨,物流送貨很快,待細細品讀。

相關圖書

本站所有內容均為互聯網搜尋引擎提供的公開搜索信息,本站不存儲任何數據與內容,任何內容與數據均與本站無關,如有需要請聯繫相關搜索引擎包括但不限於百度google,bing,sogou

© 2025 book.cndgn.com All Rights Reserved. 新城书站 版權所有