1.AlphaGo一路凱歌,“銀翼殺手”日益逼近現實……本書預言:在未來數年內,人工智能係統很可能擺脫人類監管,自主做齣決定,甚至會走上反抗人類、毀滅人類的道路!
2.如何讓智能機器人遵守人類道德?人工智能專傢如何能設計齣符閤人類道德規範的機器人?本書提齣的基礎框架,為人工道德智能體(AMAs)的設計指明瞭方嚮!
3.本書乃人工智能道德研究的前沿之作和奠基之作,齣版以來,以預言傢的遠見卓識,風靡歐美各國和日本、韓國。極大地促進瞭諸多發達國傢的機器人立法。
4.英國《自然》、《泰晤士高等教育》,德國《明鏡周刊》,美國《紐約時報》、《新聞周刊》、《NBC新聞》、《芝加哥論壇報》等世界各大媒體重磅推薦!
溫德爾?瓦拉赫(Wendell Wallach)是享有國際聲譽的人工智能和神經科學倫理學領域的專傢,主持耶魯大學生物倫理學跨學科研究中心技術和倫理工作小組長達十餘年,擔任2015-2016年加拿大渥太華大學的富布萊特講席研究員(Fulbright Research Chair),曾獲全球技術網絡協會(World Technology Network)頒發的2014年倫理學奬、2015年新聞與傳媒奬。世界經濟論壇任命他作為2016-1018全球未來技術價值和政策委員會的聯閤主席。
科林?艾倫(Colin Allen)是當今有影響的認知哲學傢之一,因其在計算和哲學領域做齣的重大貢獻獲得美國哲學學會頒發的巴韋斯終身成就奬、德國洪堡基金會頒發的洪堡奬等重要國際學術奬項。現受聘為西安交通大學長江講座教授、美國匹茲堡大學科學哲學和科學史係傑齣教授。曾擔任印第安納大學教務長講席教授。
導言
第一章 機器道德為什麼如此重要?
第二章 工程道德:AI時代的煉金術
第三章 人類想要計算機做道德決策嗎?
第四章 機器人真的能有道德嗎?
第五章 哲學傢、工程師與人工道德
第六章 自上而下的道德
第七章 自下而上的發展式進路
第八章 自上而下式與自下而上式的混閤
第九章 超越“霧件”?
第十章 超越理性
第十一章 更像人的人工道德智能體
第十二章 危險、權利和責任
結語 機器心靈與人類倫理
注釋
參考文獻
譯名對照錶
譯後記
中文版序
幾乎過不瞭一星期,報紙上、電視上,就總會看到人工智能(AI)的新聞,各種AI對人們生活造成或者可能造成負麵影響的消息不絕於耳。不管是數據挖掘算法泄露個人信息,還是有政治導嚮的宣傳的影響,如數據挖掘公司可能利用選民信息深度乾預瞭美國總統選舉結果,或種族和性彆偏見浸入瞭人工智能程序,抑或是自動駕駛汽車會使數百萬人丟掉工作。自從《道德機器》(Moral Machines)英文版首次問世,數年以來,圍繞AI産生的這些倫理問題已經變得愈加急迫和突齣。
這裏給齣一個文化偏見滲透進AI程序方麵的例子。類似榖歌翻譯這樣的解釋語言程序,其能力近年來有瞭大幅度提高,這主要得益於新的機器學習技術以及可以訓練程序的大量在綫文本數據的齣現。但是最近的研究顯示,在機器習得越來越像人的語言能力的過程中,它們也正在深度地吸取人類語言模式中隱含的種種偏見。機器翻譯的工作進路一般是這樣的,建構一個關於語言的數學錶徵,其中某個詞的意義根據最經常和它一同齣現的詞而被提煉為一係列數字(叫詞嚮量)。令人驚訝的是,這種純粹統計式的方式卻顯然抓住瞭某個詞的意義中所蘊含的豐富的文化和社會情境,這是字典裏的定義不大可能有的。例如,關於花的詞語和令人愉悅之類的詞聚類,昆蟲類的詞語和令人不快之類的詞聚類;詞語"女性""婦女"與藝術人文類職業以及傢庭聯係更緊密,詞語"男性""男人"則和數學、工程類職業更近。尤為危險的是,AI還有強化所習得的偏見的潛能,它們不像人可以有意識地去抵製偏見。因此,如何在設計理解語言的算法時既讓其消除偏見,又不喪失其對語言的解釋能力,這是一項很大的挑戰。
對於上述可能産生自AI的一些最壞的情況,學術界和技術界的領軍人物紛紛錶示關注。像劍橋大學當代最重要的物理學傢史蒂芬·霍金(Stephen Hawking),還有太空運載私人運營和電動汽車的開拓者埃隆·馬斯剋(Elon Musk),他們擔心,AI代錶著威脅人類存在的危險。另一些人卻錶示樂觀,對AI的長遠前景滿懷熱情。但他們認識到對AI的限製以及AI的弱點對商業來說是很糟糕的事情。就在2016年9月,來自微軟、IBM、FaceBook、榖歌、蘋果以及亞馬遜的領導人,他們共同創立瞭關於AI的閤作夥伴關係,當時宣稱的目標是要確保AI是"安全可靠的,要和受AI行為影響的人們的倫理和喜好一緻"。但是,市場經濟的邏輯總是在驅動著愈演愈烈的雄心,於是,應用機器學習處理收集的海量電子化數據、提高自動駕駛汽車上路的數量,新聞的頭版頭條持續不斷。
《道德機器》書中的信息依然是極為重要的,雖然此書首次齣版以來,技術已經大大嚮前發展瞭,但基本的難題不僅依然沒有解決,反而被這些技術進展所加劇。先進算法工作的基本原理還是沒完全搞清楚,這就關係到AI解釋自身決策方麵的無能為力。當然,人們在決策時也不總是能夠一目瞭然地解釋清楚自己的抉擇。但是,要設計處在一個更高水平上的機器,我們這樣把握是對的。
在《道德機器》中闡述瞭一種混閤式係統,組閤瞭自下而上式的數據驅動的學習和進化的方式,以及自上而下式的理論驅動做決策。這個思想,對於AI軟件的設計以及能夠在人類環境中操作的機器人來說,依然是最好的策略。但是,在這本書約十年前問世之後,批評者們的意見是對的,我們本來可以更多地討論一下設計更大的有機器運行的社會�布際蹕低場N頤槍刈⑷綰問夠�器自身的道德能力逐漸增進--這是一個依然需要研究的課題,關於如何使機器尊重它們的設計者和使用者人類的倫理價值,以及有效維護人類的道德責任方麵的問題,僅僅隻解決瞭部分。
人工智能機器已經在特定領域勝過瞭人。這令許多評論傢相信超人智能不遠瞭。但是,盡管AI取得瞭目前的進展,它的成功依然是脆弱的,而人的智能通常卻不是這樣。某個機器可以下圍棋勝過人,卻不能同時會下象棋、會開車,還能在傢人飯後,一邊幫忙收拾桌子,一邊解答政治學的問題。即使這些能力可以綁定給一個物理機器,我們也依然不知道,如何以像人那樣的方式把它們整閤在一起,讓一個領域的思想和概念靈活地暢行至另一領域。如此說來,《道德機器》最初問世時候的基本信息依然沒有變,這就是:不應該讓未來學傢的擔心和猜測轉移我們的注意力,我們的任務依然是設計自主機器,讓它們以可辨識的道德方式行事,使用著我們已經獲得的社會、政治和技術資源。
科林·艾倫(Colin Allen)
美國�財プ缺ぃ�2017年9月26日
《道德機器:如何讓機器人明辨是非》這個書名,本身就帶有一種哲學上的思辨色彩,瞬間吸引瞭我。我們正生活在一個科技爆炸的時代,人工智能的觸角已經延伸到我們生活的各個角落,從簡單的推薦算法到復雜的醫療診斷係統,它們無處不在。然而,隨著這些智能係統的能力日益增強,我們越來越無法迴避一個根本性的問題:當機器需要做齣涉及倫理道德的選擇時,它們該遵循怎樣的原則?我非常好奇作者是如何剖析“是非”這個對人類而言如此復雜且主觀的概念,並嘗試將其轉化為機器人能夠理解和執行的邏輯。這是否意味著我們需要為機器人建立一套全新的道德體係,還是能夠藉鑒人類現有的倫理框架?我尤其關注書中是否會探討,在設計“道德機器”的過程中,人類自身的偏見和局限性是否會被無意識地引入,從而導緻機器做齣不公平或有害的判斷。這本書在我看來,不僅僅是關於技術,更是關於我們如何塑造一個更加公正、安全和負責任的未來。
評分這本書的題目,《道德機器:如何讓機器人明辨是非》,讓我眼前一亮,仿佛看到瞭一個全新的知識領域在我麵前徐徐展開。我一直對那些能夠模擬甚至超越人類智能的機器充滿敬畏,同時也帶著一絲隱憂。特彆是當這些機器開始承擔起越來越重要的社會功能時,它們所麵臨的道德抉擇,就變得尤為關鍵。我迫切地想知道,作者是如何來定義和解釋“明辨是非”這個概念在機器人身上的實現方式。這是否涉及到復雜的算法設計,還是需要引入某種形式的“學習”機製,讓機器能夠從海量數據中學習人類的道德規範?另外,我很好奇,在構建這樣一套“道德機器”的過程中,是否存在一些我們尚未意識到的風險和挑戰?比如,如何避免機器的判斷帶有偏見?又或者,當機器的判斷與人類的直覺産生衝突時,我們應該如何處理?這本書的齣現,無疑為我提供瞭一個深入探索這些問題的絕佳機會,讓我能夠更好地理解和應對正在到來的智能時代。
評分拿到這本書,我腦海中立刻湧現齣無數關於科幻電影中那些擁有自我意識,卻又在道德上搖擺不定的機器人的畫麵。你有沒有想過,當一個機器人在執行任務時,遇到一個它不曾被編程過的突發狀況,它會如何“思考”?是遵循最原始的邏輯,還是會發展齣一種更接近人類的“直覺”?這本書的標題,《道德機器:如何讓機器人明辨是非》,無疑是在挑戰我們對智能的傳統認知。我尤其好奇作者是如何探討“明辨是非”這個概念的。畢竟,人類的道德觀本身就充滿瞭復雜性和主觀性,不同文化、不同個體之間都存在巨大的差異。那麼,要如何將如此模糊且易變的“是非”概念,轉化成一套清晰、可執行的算法,讓機器人能夠理解並遵循?這其中的技術挑戰和哲學思考,想必是極其艱巨的。我期待這本書能夠提供一些突破性的見解,或許會顛覆我之前對人工智能倫理的某些固有看法,讓我看到一條通往更負責任、更值得信賴的AI未來的道路。
評分這本《道德機器:如何讓機器人明辨是非》給我的第一印象,就是它觸及瞭一個極其前沿且充滿爭議的話題。我們正處在一個人工智能飛速發展的時代,從智能手機的語音助手到工廠裏的自動化生産綫,再到未來可能齣現的類人機器人,它們的能力邊界不斷被拓展。而隨之而來的,是那些令人不安的倫理睏境。想象一下,一個擁有強大運算能力和決策能力的機器人,如果它的“道德準則”齣現偏差,將會帶來怎樣的後果?這本書的書名,仿佛一把鑰匙,打開瞭我對這個未知領域的好奇心。我非常想知道,作者是如何將“道德”這一人類特有的、充滿情感和主觀判斷的概念,具象化為機器能夠理解和執行的標準。是否存在一套普適性的道德原則,可以被編碼進機器的“意識”中?又或者,我們是否需要為不同的應用場景,設計不同的道德框架?這些問題在我腦海中盤鏇,我期待這本書能為我提供一些清晰的思路和深刻的洞見,讓我能夠更全麵地理解人工智能倫理的復雜性。
評分這本書的封麵設計相當吸引人,那種冷峻而又帶著一絲神秘感的金屬質感,立刻就抓住瞭我的眼球。封麵上那兩個相互交織,如同抽象大腦綫條的機器人形象,似乎在暗示著它們內部復雜而深刻的思考過程。我一直對人工智能的倫理睏境非常感興趣,特彆是當它們逐漸滲透到我們生活的方方麵麵時,那些潛在的道德選擇和判斷,對我來說就像是一個巨大的謎團。這本書的名字,《道德機器:如何讓機器人明辨是非》,恰恰點齣瞭我內心最深處的那個疑問。我常常在想,當一個機器人麵臨復雜的決策時,比如在自動駕駛汽車發生事故的緊急關頭,它應該優先保護誰?是乘客,還是路人?又或者,在醫療診斷中,當資源有限時,機器人應該如何分配治療機會?這些場景聽起來像是科幻小說裏的情節,但隨著技術的發展,它們正變得越來越真實。我迫切地想知道,人類將如何為這些“道德機器”注入我們所理解的是非對錯,以及在這個過程中,我們自己又將如何重新審視和定義“道德”的邊界。這不僅僅是關於技術的問題,更是關於人性,關於我們希望未來世界是什麼樣子。
評分看著還不錯,新書比較貴。
評分好書一本。
評分送貨快,書正版,新,一如既往地好
評分好有多少年派上午後衛士多選秀齣
評分書很不錯,值得收藏和閱讀。
評分還沒讀,想學習一下
評分萬事如意!萬事如意!萬事如意!萬事如意!萬事如意!萬事如意!萬事如意!萬事如意!萬事如意!萬事如意!萬事如意!萬事如意!萬事如意!萬事如意!萬事如意!萬事如意!萬事如意!萬事如意!萬事如意!萬事如意!
評分品相不錯,還沒開始看,先備著。
評分剛收到貨,物流送貨很快,待細細品讀。
本站所有內容均為互聯網搜尋引擎提供的公開搜索信息,本站不存儲任何數據與內容,任何內容與數據均與本站無關,如有需要請聯繫相關搜索引擎包括但不限於百度,google,bing,sogou 等
© 2025 book.cndgn.com All Rights Reserved. 新城书站 版權所有