亚洲国产成人久久77-亚洲国产成人久久99精品-亚洲国产成人久久精品hezyo-亚洲国产成人久久精品动漫-人妖hd-人妖ts在线,一本道高清DVD在线视频,2020亚洲永久精品导航,国产久久视频在线视频观看

當前位置: 首頁 精選范文 人工智能的倫理思考范文

人工智能的倫理思考精選(五篇)

發(fā)布時間:2023-10-09 15:03:36

序言:作為思想的載體和知識的探索者,寫作是一種獨特的藝術,我們?yōu)槟鷾蕚淞瞬煌L格的5篇人工智能的倫理思考,期待它們能激發(fā)您的靈感。

人工智能的倫理思考

篇1

關鍵詞:人工智能;異化;規(guī)范;生態(tài)文明觀

中圖分類號:TP18

文獻標識碼:A

一、人工智能技術的發(fā)展及其影響

人工智能技術研究開始于20世紀50年代中期,距今僅有60年的發(fā)展歷程,但是其迅猛的發(fā)展速度,廣泛的研究領域以及對人類產生的深遠影響等令人驚嘆。調查顯示,77.45%的人認為現實生活中人工智能技術的影響較大,并且86.27%的人認為人工智能技術的發(fā)展對人類的影響利大于弊;認為人工智能技術對人類生活影響很小且弊大于利的人權占很小一部分。人工智能技術的發(fā)展和應用直接關系到人類社會生活,并且發(fā)揮著重要的作用。人工智能技術的發(fā)展方向和領域等由人類掌控著,所以人類應該盡可能地把人工智能技術的弊處降到最低以便更好地為人類造福。2016年3月份,圍棋人工智能AlphaGo與韓國棋手李世h對弈,最終比分4∶1,人類慘敗。4月份,中國科學技術大學正式了一款名為“佳佳”的機器人,據了解,機器人“佳佳”初步具備了人機對話理解、面部微表情、口型及軀體動作匹配、大范圍動態(tài)環(huán)境自主定位導航和云服務等功能。而在這次正式亮相之前,“佳佳”就擔綱主持了2016“首屆全球華人機器人春晚”和“誰是棋王”半Q賽。人工智能技術確實給人類帶來了諸多的便利,給人類生產生活帶來便利;但是,人工智能技術的快速發(fā)展超乎人類的預測,引起了人類的恐慌和擔憂。百度CEO李彥宏稱,人工智能是“披著羊皮的狼”。毋庸置疑,科學技術是一把雙刃劍,當人類醉心于科學技術所帶來的福利中時,更應當注意其帶來的負面作用。人類發(fā)明和創(chuàng)造科學技術最終是為了造福人類,而非受到科技的異化。

隨著科技的發(fā)展,人工智能技術越來越成熟,在此整體趨勢之下,不同的人群對人工智能技術的不斷成熟與應用有著不同的看法。調查結果顯示,在關于機器人會不會擁有人類的思維甚至超過人類的問題方面,27.45%的人認為機器人會擁有人類的思維和超過人類;而56.86%的人認為機器人不會擁有人類的思維和超過人類,小部分人對此不是很清楚。由于受到人工智能技術迅猛發(fā)展的沖擊,如機器人保姆、AlphaGo圍棋等智能產品對人類發(fā)展帶來的威脅,一部分人仍然對人工智能技術的發(fā)展擔憂甚至認為終有一天機器人將代替人類、征服人類、控制人類。但是,大部分的人在機器人是否能夠超過人類方面,保持樂觀積極的態(tài)度,認為機器人永遠不會擁有人類的思維并且超越人類,因為人類是技術的主導者,人類掌握著技術的發(fā)展方向,技術終究是為了人類服務。這一看法肯定了人類的無止境的創(chuàng)新,然而,在人類醉心于技術創(chuàng)新的同時,應意識到某些創(chuàng)新確實超出了人類的預料,如AlphaGo與李世h圍棋人機大戰(zhàn)就是人類在技術面前失敗的慘痛教訓。因此,面對科技對人類的異化,人類要時刻保持警惕,適時地總結“技術異化”的緣由和解決對策。

二、人工智能技術發(fā)展面臨的問題及其原因

隨著技術的革新,人工智能技術的應用越來越廣泛,與人們的日常生活聯系也愈加密切。從智能手機的普及到自動駕駛汽車的研制成功,再到生產、建設、醫(yī)療等領域人工智能技術的應用,都表明了人工智能技術正悄無聲息地改變著我們生活方式。誠然,人工智能技術使我們的生活更加豐富多彩,給我們帶來了極大便利,但與此同時,人工智能技術也給社會帶來了一系列不可忽視的問題:人工智能技術在社會生產領域的應用對勞動市場造成沖擊;人工智能系統(tǒng)在收集、統(tǒng)計用戶數據過程中個人隱私及信息安全方面的隱患;人類對人工智能產品的依賴引發(fā)的身心健康問題;人工智能引起的責任認定問題等。斯蒂芬?霍金在接受BBC采訪時表示,“制造能夠思考的機器無疑是對人類自身存在的巨大威脅。當人工智能發(fā)展完全,就是人類的末日。”表示同樣擔憂的還有特斯拉的創(chuàng)始人馬斯克,他曾直言,“借助人工智能,我們將召喚出惡魔。在所有的故事里出現的拿著五芒星和圣水的家伙都確信他能夠控制住惡魔,但事實上根本不行。”不可否認,人工智能技術是把雙刃劍,有利亦有弊,爭議從來就沒有停止過,而最不容忽視的莫過于人工智能技術引發(fā)的一系列倫理困境,關于人工智能的倫理問題成了重中之重。

調查發(fā)現,47.55%的人認為人工智能所引發(fā)的倫理問題是因為人性的思考,占比較大;而22.55%的人認為是由于人們價值觀念的改變;29.9%的人認為是利益分化與失衡以及一些其他的原因導致的。由此可以看出導致人工智能倫理困境的原因是多方面的。主要總結為以下幾個方面。

第一,從技術層面來看,人工智能技術在現階段仍然有很大的局限性。人工智能是對人腦的模仿,但人腦和機器還是存在本質區(qū)別的,人腦勝于人工智能的地方,就是具有邏輯思維、概念的抽象、辯證思維和形象思維。人工智能雖能進行大量的模仿,但由于不具備形象思維和邏輯思維,僅能放大人的悟性活動中的演繹方法,不可能真正具有智能,這決定了機器不能進行學習、思維、創(chuàng)造。此外,智能機器人也不具備情感智能,它們根本無法去判斷自己行為的對錯,也無法自動停止自己的某項行為,所以如果人工智能技術一旦被不法分子利用,后果不堪設想。可見,由于人工智能自身技術上的局限性導致的倫理問題已經影響到其未來發(fā)展。

第二,從規(guī)制層面來看,倫理規(guī)制的缺失和監(jiān)督管理制度的不完善是導致倫理問題產生的重要原因。科技的發(fā)展目標是為人類謀求幸福,但我們必須認識到,無論是在科技的應用還是發(fā)展過程中總是存在一些難以控制的因素,倘若沒有相應的倫理原則和倫理規(guī)制加以約束,后果難以想象。在目前人工智能領域,缺乏一套成體系的關于人工智能技術產品的從設計、研究、驗收到投入使用的監(jiān)督管理方案,也沒有一個國際公認的權威性的規(guī)范及引導人工智能技術的發(fā)展及運用的組織或機構。現有的監(jiān)督體制遠遠滯后于人工智能技術的發(fā)展速度,無法匹配技術發(fā)展的需要。缺乏相關監(jiān)管制度的約束,人工智能技術就不可避免會被濫用,從而危害社會。

第三,從社會層面來看,公眾對人工智能技術的誤解也是原因之一。人工智能作為一門發(fā)展迅猛的新興學科,屬于人類研究領域的前沿。公眾對人工智能技術的了解十分有限,調查顯示,對人工智能技術只是了解水平較低的人較多,占62.75%,以致部分人在對人工智能技術沒有真實了解的情況下,在接觸到人工智能技術的負面新聞后就夸大其詞,人云亦云,最終導致群眾的恐慌心理,從而使得更多不了解人工智能技術的人開始害怕甚至排斥人工智能技術。我們必須清楚,人工智能是人腦的產物,雖然機器在某些領域會戰(zhàn)勝人,但它們不具備主觀能動性和創(chuàng)造思維,也不具備面對未知環(huán)境的反應能力,綜合能力上,人工智能是無法超越人腦智能的。在李世h對弈AlphaGo的曠世之戰(zhàn)中,盡管人工智能贏了棋,但人類贏得了未來。

三、人工智能技術的發(fā)展轉向

人工智能技術的發(fā)展已經深入到人類社會生活的方方面面,其最終發(fā)展目標是為人類服務。但是,科學技術是把雙刃劍,它在造福人類的同時,不可避免地會給人類帶來災難,因此,人類應該趨利避害,使人工智能和科學技術最大化地為人類服務。這就要求人類必須從主客體兩個角度出發(fā),為人工智能技術的健康發(fā)展找出路。

1.技術層面

(1)加強各個國家人工智能的對話交流與合作。人工智能自20世紀50年代被提出以來,尤其是近六十年來發(fā)展迅速,取得了許多豐碩的成果。如Deep Blue在國際象棋中擊敗了Garry Kasparov; Watson 戰(zhàn)勝了Jeopardy的常勝冠軍;AlphaGo 打敗了頂尖圍棋棋手李世h。從表面上看,人工智能取得了很大的進步,但深究這些人工智能戰(zhàn)勝人類的案例,我們發(fā)現這些成功都是有限的,這些機器人的智能范圍狹窄。造成這一現象的很大一部分原因就在于國際間人工智能技術的對話交流與合作還不夠積極,所以加強各個國家人工智能的對話和交流迫在眉睫,同時也勢在必行。

(2)跨學科交流,擺脫單一學科的局限性。從事人工智能這項工作的人必須懂得計算機知識、心理學和哲學。歷史的經驗告訴我們,一項科學要想走得長遠就必須有正確的意識形態(tài)領域的指導思想的介入。在人工智能這項技術中,有些科學家們可能只關注經濟利益而沒有引進相應的倫理評價體系,最終使得技術預測不到位,沒有哲學的介入,等真正出現問題時就晚了。所以要加強科學家與哲學家的溝通交流,令科學家能更多地思考倫理問題,提高哲學素養(yǎng),在人工智能技術中融入更多的哲學思想,保證人工智能技術能朝著正確、健康方向發(fā)展。

(3)人工智能技術的發(fā)展,要與生態(tài)文明觀相結合。在人工智能技術發(fā)展中,要注入更多的生態(tài)思想,這關系人民福祉、關乎民族未來的長遠大計。在人工智能發(fā)展中,若是產生資源過度消耗、環(huán)境破壞、生態(tài)污染等全球性的環(huán)境問題時,人類必須制止并進行調整。人工智能技術要想發(fā)展得更好,前景更加明亮,前途更為平坦,就必須保持與生態(tài)文明觀一致,與人類自身利益一致,為人類造福。

2.人類自身層面

(1)增強科學家道德責任感。科學技術本身并沒有善惡性,而研發(fā)的科學家或是使用者有善惡性。人工智能將向何處發(fā)展,往往與研發(fā)人工智能的科學家息息相關。科學家應打破“個體化原理”,要融入社會中去,關注社會道德倫理問題,承擔起道德責任,為自己、他人、社會負責,多去思考自己研發(fā)的技術可能帶來的后果,并盡可能去避免,多多進行思考,嚴格履行科學家的道德責任。

(2)提高公眾文化素養(yǎng)。調查發(fā)現,對人工智能技術了解水平較低的人較多,占62.75%;而非常了解的人較少,占4.41%;另外,對人工智能技術了解的人占21.08%,不了解的人占11.76%。由此可以看出,大部分的人對人工智能技術都能有所了解,但都不是很深入,而且仍有部分人對人工智能技術絲毫不了解,所以,人工智能技術對于個體的影響是比較微小的,其發(fā)展還沒有深入到個人的日常生活中。特別是在一些關于人工智能的科幻電影的渲染,可能使那些對于人工智能技術并不了解或是一知半解的人產生偏見。在日常生活中,人工智能給人類帶來了極大的便利。通過提高公眾的文化素養(yǎng),使公眾正確認識人工智能技術,將是緩解甚至是解決人工智能技術某些倫理問題的重要途徑之一。

(3)加大監(jiān)督力度。人類需要通過建立一個完善的監(jiān)督系統(tǒng)引導人工智能技術的發(fā)展。對于每項新的人工智能技術產品從產生到使用的各個環(huán)節(jié),都要做好監(jiān)督工作,以此來減少人工智能技術的負面影響,緩解甚至減少人工智能技術的倫理問題。

3.道德法律用

(1)通過立法規(guī)范人工智能技術的發(fā)展。調查發(fā)現,90.69%的人認為有必要對人工智能技術所引發(fā)的科技倫理問題實行法治,由此可以看出,要想保證科技的良好健康發(fā)展,必須要建立健全相關法律條例。然而我國在這一方面的法律還存在很大的漏洞,相關法律條文滯后于人工智能的發(fā)展,并未頒布一套完整的關于人工智能的法律體系。沒有規(guī)矩不成方圓,在人工智能領域亦是如此。我們都無法預測將來人工智能將發(fā)展到何種地步,這時就需要人類預先加以適當的限制,利用法律法規(guī)加以正確引導,使其朝安全、為人類造福的方向發(fā)展。

(2)構建人工智能技術倫理準則并確立最高發(fā)展原則。要構建以為人類造福為最終目的的倫理準則。人工智能技術的倫理問題已經給人類造成了很多負面影響,而要防止其帶來更多負面影響,構建合適的人工智能技術倫理準則勢在必行。

此外,要確立以人為本的最高發(fā)展原則 。一切科學技術的發(fā)展都應把人的發(fā)展作為出發(fā)點。人工智能的發(fā)展也是如此,要將以人為本、為人類服務為出發(fā)點,并作為最高發(fā)展原則。

四、結語

科學技術是把雙刃劍,人類只有消除人工智能技術的潛在威脅,發(fā)揮人工智能技術最大化效用,避免倫理困境重演,才能實現人機交互的良性發(fā)展,實現人工智能與人類的良性互動。

參考文獻:

[1]王文杰,葉世偉.人工智能原理與應用[M].北京:人民郵電出版社,2004.

[2]甘紹平.人權倫理學[M].北京:中國發(fā)展出版社,2009.

[3]楊懷中.現代科技倫理學概論:高科技倫理研究[M].武漢:湖北人民出版社,2004.

[4]王志良.人工情感[M].北京:機械工業(yè)出版社,2009.

[5]鄒 蕾,張先鋒.人工智能及其發(fā)展應用[J].信息網絡安全,2012(2).

[6]王 毅.基于仿人機器人的人機交互與合作研究[D].北京:北京科技大學,2015.

[7]田金萍.人工智能發(fā)展綜述[J].科技廣場,2007(1).

[8]郝勇勝.對人工智能研究的哲學反思[D].太原:太原科技大學,2012.

[9]龔 園.關于人工智能的哲學思考[D].武漢:武漢科技大學,2010.

篇2

關鍵詞:HPS教育;小學科學;人工智能

隨著我國教育的迅猛發(fā)展,作為科學教育重中之重的小學科學教育逐漸開始被大眾所關注,所以探索小學科學教育的新思路已成為教育改革的關鍵之一。多年來,我國不斷借鑒發(fā)達國家的教育改革理念與經驗,并進行本土化研究,促進我國教育發(fā)展。

一、研究背景

HPS教育作為西方20世紀80年代盛行的理論,引入中國已有20余年。作為極其受歡迎的教育理念,憑借著自身優(yōu)勢在中國教育課程改革中占據了一席之地,也為中國科學教育提供了新思路。

(一)HPS的概念界定

HPS的提出源自科學內部對科學反思和科學外部人員對科學本質認識的思考。最初,HPS指的是科學史(HistoryofScience)和科學哲學(PhilosophyofScience)兩大學科領域,但在20世紀90年代科學建構論流行后,科學社會學與科學知識社會學被引入科學教育,HPS逐漸演化成科學史(HistoryofScience)、科學哲學(PhilosophyofScience)和科學社會學(SociologyofScience)三者的統(tǒng)稱[1]:科學史即研究科學(包括自然科學和社會科學)和科學知識的歷史;科學哲學則是對科學本性的理性分析,以及對科學概念、科學話語的哲學思辨,比如科學這把“雙刃劍”對人類社會的影響;科學社會學則討論科學處在社會大系統(tǒng)中,社會種種因素在科學發(fā)展過程中的地位和作用,這包括了政治、經濟、文化、技術、信仰等因素[2]。在國外,德國科學家和史學家馬赫最早提倡HPS教育,突出強調哲學與歷史應用至科學教學中的作用。我國HPS相關研究開始晚且研究規(guī)模較小,首都師范大學的丁邦平教授認為HPS融入科學課程與教學是培養(yǎng)學生理解科學本質的一個重要途徑[3]。

(二)HPS教育理念融入小學科學課程的必要性

運用科學史、科學哲學等進行教學是目前國際上小學科學教育改革的一種新趨勢。2017年,教育部頒布的《義務教育小學科學課程標準》標志著我國科學教育步入了新階段,其不僅要求達成科學知識、科學探究的相應目標,也要養(yǎng)成相應的科學態(tài)度,思考科學、技術、社會與環(huán)境的融洽相處。該標準提出了“初步了解在科學技術的研究與應用中,需要考慮倫理和道德的價值取向,提倡熱愛自然、珍愛生命,提高保護環(huán)境意識和社會責任感”。HPS教育與小學科學課程的結合是教學內容由知識到能力再到素養(yǎng)的過程,是小學科學教育的新維度,改變了小學科學課程的教學環(huán)境。將科學課程中融入HPS教育的內容,可以幫助學生理解科學本質,研究科學知識是如何產生的,科學對社會的多方面影響以及科學和科學方法的優(yōu)、缺點等。當《小學課程標準》將科學態(tài)度和價值觀視為科學教育的有機組成部分時,小學科學課程就有望成為HPS教育的天然載體,同時為小學科學課程滲透HPS教育提出了挑戰(zhàn)。目前,我國小學科學課程雖已有部分設計融入了HPS教育理念,但該融入過程仍停留在表面,融入程度低,融入方式單一。所以,研究HPS教育理念融入小學科學課程十分有必要。

(三)HPS教育理念融入小學科學課程的可行性

縱觀國內外已有的研究,將HPS教育融入小學科學課程可分為基于傳統(tǒng)課堂模式的正式教育課程和基于科技館、研學機構等的非正式教育課程。由皖新傳媒、中國科學技術大學先進技術研究院新媒體研究院、中國科學技術大學出版社三方通力合作、聯合打造的《人工智能讀本》系列叢書自出版以來已發(fā)行八萬套,在安徽省多個市區(qū)的小學得以應用,是青少年人工智能教育上的一次全新探索。該套叢書分三年級至六年級共四套,涵蓋了16個人工智能前沿研究領域知識點,每一節(jié)課都設有場景引入、讀一讀、看一看、試一試4個模塊。小學《人工智能讀本》作為闡述新興科技的讀本,以親切的場景對話和可愛幽默的插畫等形式吸引了眾多小學生的興趣,不僅可作為學校科學課讀本,也可以應用于課外場景。本文則以小學《人工智能讀本》為例,對HPS教育進行初步摸索與實踐,以期對小學科學教育帶來教益。

二、HPS教育理念融入小學科學的典型案例

《人工智能讀本》作為HPS教育理念融入小學科學實踐的典型案例,側重引導學生多維度、科學辯證地認識人工智能,內容包括機器學習、決策職能和類腦智能,以及人工智能的不同發(fā)展階段,帶領學生思考人工智能帶來的倫理問題以及其他挑戰(zhàn),培養(yǎng)學生正確的世界觀、人生觀和價值觀。本研究將以《人工智能讀本》六年級第四單元“人工智能倫理與其他挑戰(zhàn)”為例,分析HPS教育理念融入小學科學的實踐。

(一)科學史:提升課程趣味性

小學科學教育作為培養(yǎng)具有科學素養(yǎng)公眾的重要步驟,提升過程的趣味性則十分重要。過去傳統(tǒng)的小學科學教育注重知識的傳遞而忽略了學習過程,填鴨式教學導致學生失去對科學的興趣與探索欲,不利于公民科學素養(yǎng)的整體提高。而科學史作為研究科學(包括自然科學和社會科學)和科學知識的歷史,已經逐漸滲透到科學教育中來。科學史常常介紹科學家的事跡,某一知識誕生所面臨的困難和曲折過程,而將科學史融入課程可以帶學生重回知識誕生的時刻,切身體會科學。讀本作為在小學科學教育中不可或缺的工具,利用科學史內容,以敘事方式可以將科學哲學與科學社會學的思想融入教學過程中,在讀本中融入歷史,可以提升課程趣味性,幫助學生更加容易探求科學本質,感受科學家不懈努力、敢于質疑的精神,提升科學素養(yǎng)。例如《人工智能讀本》六年級第四單元“人工智能倫理與其他挑戰(zhàn)”引入部分即以時間順序展開,介紹人工智能的發(fā)展與面臨的困境。在“看一看”中機器人索菲亞是否可以結婚的故事不僅為本章節(jié)提供了豐富的內容,提升了課程的趣味性,而且還融入了科學與哲學,引發(fā)讀者對于人工智能的思考。

(二)科學社會學:提升課程社會性

科學社會學是研究一切科學與社會之間的聯系與影響,包含科學對社會的影響和社會對科學的影響。科學是一種社會活動,同時也受到政治、經濟、文化等多方面影響,比如蒸汽機的誕生表明科學促進社會的發(fā)展。在科學教育的課堂中融入科學社會學不僅可以幫助學生理解科學問題,還可以通過介紹科學與社會之間的復雜關系,培養(yǎng)學生靈活、批判看待科學問題的思維能力。如六年級第四單元“人工智能倫理與其他挑戰(zhàn)”中,在介紹個人與技術的基礎上引入了政府和環(huán)境這兩個要素,使學生在更宏觀的背景下,獲得這樣一種認知:環(huán)境與技術之間有一把“雙刃劍”,個人與技術、政府與技術之間是相互促進的主客體關系。《人工智能讀本》并不全是說教性質的文字,在“試一試”中的辯論賽環(huán)節(jié)讓同學通過親身實踐,更加了解人工智能對于社會的多方面影響。通過對于科技是一把“雙刃劍”這一事實的了解,同學們可以更好地將學習知識與社會的背景聯系在一起,深刻體會科學中的人文素養(yǎng),增強社會責任感。

(三)科學哲學:提升課程思辨性

以往研究發(fā)現,國內學科教材中關于科學史和科學社會學內容較多而且呈顯性,而對于科學哲學的融入內容不夠,且不鮮明。[3]科學哲學融入科學教育無疑可以提升學生的思辨性,幫助學生建立起對于科學正確而全面的認識。例如,《人工智能讀本》六年級第四單元“人工智能倫理與其他挑戰(zhàn)”中,引入人工智能倫理,通過介紹人工智能面對的挑戰(zhàn)、人工智能的具體應對策略,讓小學生了解人工智能技術發(fā)展的同時也要重視可能引發(fā)的法律和倫理道德問題,明白人與人工智能之間的關系以及處理這些關系的準則。通過“讀一讀”先讓學生明白倫理概念,再用一幅畫讓學生思考在算法的發(fā)展下,人類與機器人的關系如何定義,向學生傳遞樹立人類與人工智能和諧共生的技術倫理觀。通過這種方式,可以幫助學生逐步建立完整的科學觀,全面且思辨地看待科學,提升學生思辨性,進而提升科學素養(yǎng)。

三、HPS教育理念融入小學科學課程的實踐建議

《人工智能讀本》作為一套理論與實踐相結合,具有知識性與趣味性的兒童科普讀物,著重引導小學生培養(yǎng)科學創(chuàng)新意識,提升人工智能素養(yǎng),產生求知探索欲望。但《人工智能讀本》作為HPS融入小學科學課程的初始,仍存在教育資源不充分、內容結合較淺等不足,為了將HPS教育更好融入小學科學課程,可從以下三方面加以改進。

(一)開發(fā)HPS教育資源

HPS教育需要教育資源的支撐。HPS教育資源來源廣泛,無論是學生的現實生活,還是歷史資料,都可以提供契機和靈感。《人工智能讀本》中收集了大量與人工智能相關的故事和現實案例,都可以作為教育資源,從各個角度達到科普的目的。在新媒體時代,進行HPS教育資源開發(fā)時,應當注意借助最新的信息與通信技術增強資源的互動性,如互動多媒體技術、虛擬現實技術、增強現實技術、科學可視化技術等。在傳統(tǒng)的科學課堂教學中,主要是通過圖片文字講解,實驗演示及互動來開展。這種形式對于現實中能接觸到的實驗內容,如常見的動植物、可操作的物理化學實驗等,比較容易開展。而對于地球與宇宙科學領域的知識,或者一些已經不存在的動植物,則只能通過圖片視頻進行展示,不容易進行實驗展示。通過虛擬現實技術、增強現實技術等,則可以虛擬出世界萬物,如不易操作的物理化學實驗、已消失的動植物等都可以通過虛擬現實的手段得以呈現。這些技術或能使教學內容變得生動形象,或通過營造沉浸感以使學生有更佳的情境體驗,或讓學生與教學資源進行交互從而自定義內容,服務于學生科學素養(yǎng)提升的終極目的。

(二)對小學科學教師進行培訓

HPS教育的關鍵是從社會、歷史、哲學等角度對自然科學內容進行重新編排,并不是將大量的內容或學科知識簡單相加,這對教師能力也提出了更高要求。目前,人工智能教學領域常常出現“學生不會學、老師不會教”的狀況,《人工智能讀本》作為內容翔實有趣的讀本可以彌補一部分缺失。但與此同時,也需要提升教師的教學能力與知識儲備。HPS教育理念不僅僅針對歷史中的科學人物,所有的學生主體也是歷史中的主體,他們也身處于社會中,并且對于生活中的各種科學現象有著自己的思考。所以教師身為引導者,需要注意到學生的思考,深入挖掘,鼓勵他們對所思內容進行反思并付諸實踐。科學史和科學哲學應當成為科學教師教育項目中的一部分,這能讓科學教師更好地理解他們的社會責任。為此,對職業(yè)科學教師進行HPS培訓便是必要的。

(三)多場景開展小學科學教育

科學素養(yǎng)不是空洞的,它來自學生的認識體驗,并從中獲得生動、具體的理解和收獲。《人工智能讀本》作為方便攜帶的讀本,不僅可以在小學科學課堂中作為教材使用,也可以應用在其他場景,如研學旅行、科技館等場所。課堂學習只是小學科學教育中的一個環(huán)節(jié),家庭、科技館等也可以進行科學教育。例如,科技館與博物館可以以科學家和歷史科學儀器為主題舉辦展覽,展覽中融入HPS教育理念,學生在參觀和學習過程中學習有關科學內容。一些歷史上大型的科學實驗,學校教室或實驗室無法滿足條件,但在大型的場館中可以實現。例如,研學旅行作為目前科學教育中最受歡迎的方式之一,已被納入學校教育教學計劃,列為中小學生的“必修課”,正逐漸成為學生獲得科學知識的另一個途徑。研學旅行作為一種集知識性、教育性、趣味性和娛樂性為一體的旅游形式,通常伴隨著知識教育的過程,包括科學知識的普及,所以也是開展小學科學教育的重要場所。在該場景下,運用《人工智能讀本》等新興手段進行科學教育往往取得事半功倍的效果。

結語

目前,HPS教育理念已經積極嘗試運用到小學科學教育中,包括學校內的正式學習以及學校外如科技館、博物館、研學旅游中的非正式學習之中。其中,科技史以時間維度為線索創(chuàng)造豐富資源的同時也可以提升課程趣味性;科學社會學以科學與社會之間的相互關系幫助學生理解科學本質,提升科學素養(yǎng);科學哲學則以哲學的視域審視科學的誕生提升學生思辨能力。未來,HPS教育結合小學科學則需要更深入,在資源開發(fā)、教師培訓以及應用場景等方面加以改進,為提升國民科學素養(yǎng)做出努力。

參考文獻:

[1]袁維新.國外科學史融入科學課程的研究綜述[J].比較教育研究,2005,26(10):62-67.

[2]張晶.HPS(科學史,科學哲學與科學社會學):一種新的科學教育范式[J].自然辯證法研究,2008,24(9):83-87.

[3]丁邦平.HPS教育與科學課程改革[J].比較教育研究,2000(06):6-12.

篇3

人工智能和機器學習的進步速度如此迅猛,我們的社會將迎來一些重要的倫理和經濟問題,應對這些問題恐怕會費心費力。

總體而言,人工智能(AI)和物聯網將同時改變互聯網和全球經濟。在未來5年內,我們可以預期人工智能和機器學習將會被整合到各種各樣的技術中,這些技術包括數據交換和分析。這將帶來巨大的機遇,如全新的服務和科學突破,人類智力的提升,以及它與數字世界的融合。

在人工智能領域存在相當大的不確定性,如決策轉由機器執(zhí)行,缺乏透明度,技術變革將超過治理和政策規(guī)范的發(fā)展。自動化可能會深刻地改變行業(yè),影響就業(yè)和公共服務的交付。政府和社會需要為其影響做好準備:

經濟和社會必須為人工智能以及物聯網帶來的顛覆做好準備。

在人工智能的設計和部署中,必須優(yōu)先考慮倫理問題。

人工智能和自動化將帶來全新的社會經濟機會,但對個人和社會的影響和取舍還不清楚。

人工智能正改變著我們的決策方式,我們必須確保人類仍然處于“駕駛座”的主導位置。

在社會內部和社會之間,人工智能的益處分配將不均衡,進而加劇當前和未來的數字鴻溝。這種現象發(fā)生的風險極高。

人工智能世界的治理與倫理問題

人工智能引發(fā)了對倫理問題的廣泛擔憂。技術人員表示,這項技術需遵從人類的價值觀,在人工智能系統(tǒng)的設計、開發(fā)和部署的每一個階段,都必須優(yōu)先考慮倫理層面的問題。

目前,人工智能和相關技術正在開發(fā)和部署,短期內將需要大量的投資和努力,以避免對社會和人類造成意想不到的影響。在未來,我們需要把焦點放在研究上以及有效的管理架構上,以確保人工智能技術帶來的是契機,而不是損害。目前,開發(fā)算法的工作仍然由人類完成。對我們所做的事,我們仍擁有些許控制。

然而,如果我們把這類工作拱手相讓給中介機構,而中介機構又讓算法來設計算法。那么在五年內,開發(fā)算法的工作可能就不是人類在做了,而是人工智能在掌控。是否將出現這樣的前景:我們打交道的中介機構將被人工智能替代。

此外,人工智能引發(fā)的重要考慮事項涵蓋了隱私、透明度、安全性、工作性質,以及整體經濟。例如,基于面部識別技術可以提升用戶在社交媒體上的體驗。但同樣的技術也可以用來提升監(jiān)視效果,犧牲個人隱私。亦或是,如果人工智能成為社交媒體網絡和在線平臺的永久功能,在這些平臺上,算法被用來管理在線體驗、有關自由選擇和偏見的問題將會加劇。人們將對數據收集和決策的透明度和責任性感到擔憂。這種擔憂將會加速倫理原則的制定。而這些原則的作用是什么?用以指導人工智能的設計和部署。

一個社會如果完全以數據收集為基礎,那么從商業(yè)角度來看,在沒有適當的民主監(jiān)督和平衡的情況下,將助長社會過度依賴監(jiān)督。機器提供了太多自動選擇,人類無需過多思考,從而失去了某些自我決策的機會。

數據分析技術產生的自動化將對人類行為和決策產生更大的影響。

政府將如何應對人工智能帶來的更大的經濟和社會影響?政府是否具備這樣做的能力和資源?在政府內部,由于政策的制定和調整越來越多地受到數據的驅動,人工智能可能會帶來一種根本性的決策調整。此外,人工智能可能成為未來政策選擇的一種決策工具,而且使用起來可能會草率而不透明。

物聯網和人工智能的發(fā)展將為政府決策提供科學依據,并幫助它們快速應對民眾的需求。

許多人預見,未來幾年將展開一場激烈的競爭,以爭奪商業(yè)人工智能領域的霸主地位。盡管這可能會推動創(chuàng)新,并有可能顛覆當前的市場結構,但也存在競爭方面的擔憂。預測者認為,在可預見的未來,如今的領先科技公司將會控制人工智能市場。

人工智能對互聯網經濟的影響

一些人認為,預測人工智能是一種營銷炒作,但很多業(yè)內人士和政府都在為人工智能的普及做準備。CB Insights估計,2016年超過50億美元的風投資金流向了人工智能創(chuàng)業(yè)公司,比前一年增長了62%。人工智能為創(chuàng)造新工作、新產業(yè)和新溝通方式提供了巨大機遇。

隨著人工智能和自動化在各個行業(yè)推動重大結構變革,工作的本質將發(fā)生改變。隨著人工智能獲取用戶數據,改變產品和服務的交付方式,許多現有的工作崗位可能會被取代。如何適應變化的步伐將是未來一項重大的全球性挑戰(zhàn)。

與人工智能和物聯網相關的項目引領了我們很長一段時間,提升了我們現有的技術,讓普通人生活更加方便。

人工智能系統(tǒng)和技術可以改變工作的性質,讓員工能力得到提升,從而減少人類之間和國家之間的不平等。人工智能讓我們承擔和解決更大的挑戰(zhàn)。正如一份調查報告所顯示,“人們的大腦和互聯網之間的距離會變得越來越近,而兩者之間的交叉會變得越來越復雜。”

機器與機器之間的通信增加了成本壓力,人們正在被取代。這只會隨著時間的推移而不斷增加,這對經濟有好處,但會對就業(yè)提出挑戰(zhàn)。

人工智能為科學研究、交通運輸和服務提供帶來了巨大潛在收益。如果可訪問性和開源開發(fā)勝出,人工智能有可能給發(fā)達國家和發(fā)展中國家?guī)砑t利。例如,依賴農業(yè)生產的國家可以利用人工智能技術分析作物產量,優(yōu)化糧食產量。在醫(yī)療保健領域使用人工智能可能會改變低收入地區(qū)的疾病檢測方法。

人工智能是一種創(chuàng)造性的毀滅,它將淘汰許多工作崗位,但也將創(chuàng)造新的角色和工作崗位。

但是,社會本身是否已經準備好接受這種變化,我們是否為新型經濟做好了充分的準備?對于發(fā)展中經濟體而言,新技術總是能創(chuàng)造出更多的可能性,盡管部署人工智能(以及物聯網)的基礎設施非常重要。人工智能的好處也可能不均衡:對于依賴低技能勞動力的經濟體,自動化可能會挑戰(zhàn)它們在全球勞動力市場中的競爭優(yōu)勢,并加劇當地的失業(yè)形勢,影響經濟發(fā)展。

用于管理制造業(yè)或服務業(yè)的智能和服務,可能仍集中在發(fā)達國家。人工智能可能會在很大程度上加劇數字鴻溝,這將會帶來政治上的影響。

確保互聯網技術創(chuàng)造市場就業(yè)機會,且不會對就業(yè)市場造成損害,這是未來5年必須解決的一個挑戰(zhàn),也是國際上一個緊迫而嚴重的問題。

人工智能對互聯網安全和網絡智能的影響

算法開始做出決策,它們比人類決策更快,并且可以代表我們的意志。此外,系統(tǒng)越來越不透明。我們不知道他們在哪里,他們在做什么決定。

雖然安全與信任對人工智能的未來至關重要,但這項技術也可以幫助解決安全挑戰(zhàn)。隨著網絡和信息流變得越來越復雜,人工智能可以幫助網絡管理人員理解交通模式,創(chuàng)建識別安全威脅的方法。在基本的企業(yè)層面上,人工智能可以執(zhí)行由IT幫助臺執(zhí)行的任務,比如解決員工的電腦問題。

這將為企業(yè)IT專業(yè)人員提供更多的時間來實現安全最佳實踐,并更好地保護公司系統(tǒng)和網絡。除了人工智能決策,人工智能還可以在網絡上對日益增長的安全威脅進行分類。

篇4

科學家:

物理學家斯蒂芬?威廉?霍金(Stephen William Hawking):文明所產生的一切都是人類智能的產物,從國際象棋和圍棋人機大戰(zhàn)的結果來看,生物大腦可以達到的和計算機可以達到的,沒有本質區(qū)別。因此,它遵循了“計算機在理論上可以模仿人類智能,然后超越”這一原則。人工智能一旦脫離束縛,將以不斷加速的狀態(tài)重新設計自身。人類由于受到漫長的生物進化的限制,無法與之競爭,將被取代。

斯坦福大學計算機科學院教授、谷歌首席科學家Yoav Shoham:未來人與機器的界限會越來越模糊,當人和機器融為一體了,就不存在機器會取代人的一個過程。

企業(yè)家:

微軟CEO 薩提亞?納德拉(Satya Nadella):未來的AI世界,人和機器的關系不是非此即彼,而應該是人機攜手,共創(chuàng)未來。

谷歌CEO桑達爾?皮查伊(Sundar Pichai):關于AI反噬人類的擔憂,從長遠來看,AI必將提高人類的生活質量。

百度公司創(chuàng)始人李彥宏:人工智能等技術其實沒有這么可怕,可以為人們所用,基本上只是披著狼皮的羊。

創(chuàng)新工場創(chuàng)始人李開復:人類面臨最大的問題是失業(yè),而不是被機器取代以及機器有了意識去控制人類。

學者:

篇5

關鍵詞:人工智能 情感 約束

中圖分類號:TP18 文獻標識碼:A 文章編號:1007-3973(2013)001-085-03

1引言

人工智能(Artificial Intelligence,AI)自從20世紀50年代產生,經過長期發(fā)展,已經有了長足的進步,并且已經深入到社會生活的諸多領域,如語言處理、智能數據檢索系統(tǒng)、視覺系統(tǒng)、自動定理證明、智能計算、問題求解、人工智能程序語言以及自動程序設計等。隨著科學技術的不斷發(fā)展,現在的人工智能已經不再是僅僅具有簡單的模仿與邏輯思維能力,人們也越來越期待人工智能能夠幫助或者替代人類從事各種復雜的工作,加強人的思維功能、行為功能或是感知功能。這就要求人工智能具有更強的情感識別、情感表達以及情感理解能力。通俗的說,為了使得人工智能對外界的變化適應性更強,需要給它們賦予相應的情感從而能夠應對這個難以預測的世界。

在賦予人工智能“情感”的過程中,面臨著許多的問題,有科技層面上的,也有社會學層面的。本文在這里只討論其中一個比較基本的社會學問題:“人工智能情感約束問題”,即關注于如何約束賦予給人工智能的情感,不至于使其“情感泛濫”。情感指的是一種特殊的思維方式,人工智能具有了情感后的問題是:人工智能的情感是人類賦予的,人工智能自身并不會創(chuàng)造或者控制自己的情感。如果賦予人工智能的情感種類不合理,或者是賦予的情感程度不恰當,都有可能造成“情感泛濫”并導致一些災難性的后果。例如,當人工智能具有了情感之后,如果人類自身管理不恰當,有可能導致人工智能反過來傷害人類。盡管目前我們只能在一些科幻作品中看到這種情況發(fā)生,但誰也不能保證未來有一天會不會真的出現這種悲劇。

本文第二章對人工智能情感研究進行了概要性回顧,第三章對如何約束人工智能情感進行了嘗試性探討,最后一章對全文進行了總結。

2人工情感發(fā)展情況概述

隨著科學家對人類大腦及精神系統(tǒng)深入的研究,已經愈來愈肯定情感是智能的一部分。人工情感是以人類自然情感理論為基礎,結合人工智能、機器人學等學科,對人類情感過程進行建模,以期獲得用單純理性思維難以達到的智能水平和自主性的一種研究方向。目前,研究者的研究方向主要是人工情感建模、自然情感機器識別與表達、人工情感機理等四個方面的內容。其中,尤以人工情感機理的研究困難最大,研究者也最少。

目前人工情感在很多領域得到了應用和發(fā)展,比較典型的是在教育教學、保健護理、家庭助理、服務等行業(yè)領域。在教育教學方面比較典型的例子是德國人工智能研究中心發(fā)展的三個方案:在虛擬劇場、虛擬市場和對話Agent中引入情感模型和個性特征來幫助開發(fā)兒童的想象力及創(chuàng)造力。在保健護理方面比較典型的是家庭保健與護理方向,如Lisetti等人研制的一個用于遠程家庭保健的智能情感界面,用多模態(tài)情感識別手段來識別病人的情感狀態(tài),并輸入不同媒體和編碼模型進行處理,從而為醫(yī)生提供關于病人簡明而有價值的情感信息以便于進行有效的護理。服務型機器人的典型例子是卡內基梅隆大學發(fā)明的一個機器人接待員Valerie。Valerie的面孔形象的出現在一個能夠轉動方向的移動屏幕上時可以向訪問者提供一些天氣和方位方面的信息,還可以接電話、解答一些問題;并且Valerie有自己的性格和愛好,情感表達較為豐富。當然這些只是人工情感應用領域中的幾個典型的例子,人工智能情感的潛力仍然是巨大的。

盡管關于人工情感的研究已經取得了一定的成果,給我們帶來了很多驚喜和利益,但由于情緒表現出的無限紛繁以及它與行為之間的復雜聯系,人們對它的運行機理了解的還不成熟,以致使得目前人工情感的研究仍面臨著諸如評價標準、情感道德約束等多方面問題。所以必須清楚的認識到我們目前對于人工情感的計算乃至控制機制并沒有一個成熟的體系。

3對人工智能的情感約束

正如上文所述,如果放任人工智能“情感泛濫”,很有可能會造成嚴重的后果。為了使人工智能技術更好的發(fā)展,使智能與情感恰到好處的結合起來,我們有必要思考如何對賦予人工智能情感進行引導或者約束。

3.1根據級別賦予情感

可以根據人工智能級別來賦予其情感,如低級別人工智能不賦予情感、高級別人工智能賦予其適當的情感。眾所周知,人工智能是一門交叉科學科,要正確認識和掌握人工智能的相關技術的人至少必須同時懂得計算機學、心理學和哲學。首先需要樹立這樣的一個觀點:人工智能的起點不是計算機學而是人的智能本身,也就是說技術不是最重要的,在這之前必須得先解決思想問題。而人工智能由于這方面沒有一個嚴格的或是量度上的控制而容易出現問題。從哲學的角度來說,量變最終會導致質變。現在是科學技術飛速發(fā)展的時代,不能排除這個量變導致質變時代的人工智能機器人的到來,而到那個時候后果則不堪設想。因此,在現階段我們就應該對人工智能的情感賦予程度進行一個約束。

根據維納的反饋理論,人工智能可以被分成高低兩個層次。低層次的是智能型的人工智能,主要具備適應環(huán)境和自我優(yōu)化的能力。高層次的是情感型的人工智能,它的輸入過程主要是模仿人的感覺方式,輸出過程則是模仿人的反應情緒。據此我們可分別將機器人分為一般用途機器人和高級用途機器人兩種。一般用途機器人是指不具有情感,只具有一般編程能力和操作功能的機器人。那么對于一般用途的機器人我們完全可以嚴格的用程序去控制它的行為而沒必要去給他賦予情感。而對于高級層面的情感機器人來說,我們就適當的賦予一些情感。但即使是這樣一部分高層次的情感機器人,在賦予人工情感仍然需要考慮到可能會帶來的某些潛在的危害,要慎之又慎。

3.2根據角色賦予情感

同樣也可以根據人工智能機器人角色的不同選擇性的賦予其不同類型的情感。人類與機器合作起來比任何一方單獨工作都更為強大。正因為如此,人類就要善于與人工智能機器合作,充分發(fā)揮人機合作的最大優(yōu)勢。由于計算機硬件、無線網絡與蜂窩數據網絡的高速發(fā)展,目前的這個時代是人工智能發(fā)展的極佳時期,使人工智能機器人處理許多以前無法完成的任務,并使一些全新的應用不再禁錮于研究實驗室,可以在公共渠道上為所有人服務,人機合作也將成為一種大的趨勢,而他們會以不同的角色與我們進行合作。或作為工具、顧問、工人、寵物、伴侶亦或是其他角色。總之,我們應該和這些機器建立一種合作互助的關系,然后共同完任務。這當然是一種很理想的狀態(tài),要做到這樣,首先需要我們人類轉變自身現有的思維模式:這些機器不再是一種工具,而是平等的服務提供人。

舉例來說,當機器人照顧老人或是小孩的時候,我們應該賦予它更多的正面情緒,而不要去賦予負面情緒,否則如果機器人的負向情緒被激發(fā)了,對于這些老人或者小孩來說危險性是極大的;但是,如果機器人是作為看門的保安,我們對這種角色的機器人就可以適當的賦予一些負向的情緒,那么對于那些不按規(guī)則的來訪者或是小偷就有一定的威懾力。總之,在我們賦予這些智能機器人情感前必須要周到的考慮這些情感的程度和種類,不要沒有顧忌的想當然的去賦予,而是按分工、作用賦予限制性的情感約束,達到安全的目的。

3.3對賦予人進行約束

對人工智能情感賦予者進行約束,提高賦予者的自身素質,并定期考核,并為每一被賦予情感的人工智能制定責任人。

縱觀人工智能技術發(fā)展史,我們可以發(fā)現很多的事故都是因為人為因素導致的。比如,首起機器人殺人案:1978年9月的一天,在日本廣島,一臺機器人正在切割鋼板,突然電腦系統(tǒng)出現故障,機器人伸出巨臂,把一名工人活生生地送到鋼刀下,切成肉片。

另外,某些研究者也許會因為利益的誘惑,而將人工智能運用在不正當領域,或者人工智能技術落入犯罪分子的手中,被他們用來進行反對人類和危害社會的犯罪活動。也就是用于所謂的“智能犯罪”。任何新技術的最大危險莫過于人類對它失去控制,或者是它落入那些企圖利用新技術反對人類的人的手中。

因此為了減少這些由于人而導致的悲劇,我們需要對這些研究者本身進行約束。比如通過相應的培訓或是定期的思想政治教育、或是理論知識的學習并制定定期的考核制度來保證這些專家自身的素質,又或者加強對人工智能事故的追究機制,發(fā)生問題能立即查詢到事故方等等,通過這樣一系列強有力的硬性指標達到減少由于人為因素導致悲劇的目的。

3.4制定相應的規(guī)章制度來管理人工智能情感的發(fā)展

目前世界上并未出臺任何一項通用的法律來規(guī)范人工智能的發(fā)展。不過在1939 年,出生在俄國的美籍作家阿西莫夫在他的小說中描繪了工程師們在設計和制造機器人時通過加入保險除惡裝置使機器人有效地被主人控制的情景。這就從技術上提出了預防機器人犯罪的思路。幾年后, 他又為這種技術裝置提出了倫理學準則的道德三律:(1)機器人不得傷害人類,或看到人類受到傷害而袖手旁觀;(2)在不違反第一定律的前提下,機器人必須絕對服從人類給與的任何命令;(3)在不違反第一定律和第二定律的前提下,機器人必須盡力保護自己。這一“機器人道德三律”表現了一種在道德憂思的基礎上,對如何解決人工智能中有害人類因素所提出的道德原則,雖然得到很多人的指責,但其首創(chuàng)性還是得到公認的。盡管這個定律只是小說家提出來的,但是也代表了很多人的心聲,也是值得借鑒的。

那么對于人工智能情感的約束呢?顯然,更加沒有相應的法律法規(guī)來規(guī)范。那么,我們就只能在賦予人工智能情感的道理上更加的小心翼翼。比如,我們可以制定一些應急方案來防止可能導致的某些后果,也即出現了問題如何及時的處理之。另外我們在操作和管理上應更加慎重的去對待。也希望隨著科學技術的發(fā)展,能夠在不久的將來出臺一部相應的規(guī)章制度來規(guī)范人工智能情感的管理,使之更加精確化、合理化。

4結束語

人工智能的情感研究目的就是探索利用情感在生物體中所扮演的一些角色、發(fā)展技術和方法來增強計算機或機器人的自治性、適應能力和社會交互的能力。但是現階段對這方面的研究雖然在技術上可能已經很成熟,但是人工智能情感畢竟是模擬人的情感,是個很復雜的過程,本文嘗試性的在人工智能發(fā)展中可能遇到的問題進行了有益的探討。但是不可否認仍然有很長的道路要走,但是對于人工智能的發(fā)展勁頭我們不可否認,將來“百分百情感機器人”的問世也許是遲早的事情。

參考文獻:

[1] 趙玉鵬,劉則淵.情感、機器、認知――斯洛曼的人工智能哲學思想探析[J].自然辯證法通訊,2009,31(2):94-99.

[2] 王國江,王志良,楊國亮,等.人工情感研究綜述[J].計算機應用研究,2006,23(11):7-11.

[3] 祝宇虹,魏金海,毛俊鑫.人工情感研究綜述[J].江南大學學報(自然科學版),2012,11(04):497-504.

[4] Christine Lisett,i Cynthia Lerouge.Affective Computing in Tele-home Health[C].Proceedings of the 37th IEEE Hawaii International Conference on System Sciences,2004.

[5] Valerie.The Roboceptionist[EB/OL].http://.

[6] 張顯峰,程宇婕.情感機器人:技術與倫理的雙重困境[N].科技日報,2009-4-21(005).

[7] 張曉麗.跟機器人談倫理道德為時尚早[N].遼寧日報,2011-11-04(007).

[8] Peter Norvig.人工智能:機器會“思考”[J].IT經理世界,2012(Z1):331-332.

[9] McCarthy J.Ascribing Mental Qualities to Machines1A2. In Ringle M,editor,Philosophical Perspectives in Artificial Intelligence1C2,Humanities Press Atlantic Highlands,NJ,1979:161-195.