如何看待人工智能(Artificial Intelligence)?——福音派的原則與聲明
檢舉
近年來,人工智能(Artificial Intelligence,以下簡稱AI)取得了許多進步。比如數字助理Siri和Alexa,自動駕駛汽車的開發,人臉識別,共享乘車等等。人工智能是否可以讓我們所有的夢想成真,抑或會破壞我們所知道的社會和世界?
人工智能應用實例選介
IBM Watson
2011年,IBM的認知計算系統Watson在問答節目中首次擊敗了人類。隨後,身價大漲的Watson逐漸成為了IBM乃至全球AI項目的代表。那時,擊敗專業棋手,模擬人類短期記憶的人工神經網絡的谷歌DeepMind,以及深度分析大數據的學習框架還沒有出現。但Watson標誌一個新AI時代開始了。
只是近兩年,隨著AI的大規模崛起,更趨向方便使用者,更實惠的技術頻繁出現,IBM逐漸在人才與新市場的爭奪上喪失領導地位。可能原因包括:
無法承擔如腫瘤研究等複雜項目中的技術能力和安全風險。
Watson在腫瘤研究中的基本方案,是依靠輸入大量的真實病歷,來解讀癌症背後的成因, 深層病理,並給出治療方案與建議。但需要注意的是,差不多所有購買了Watson的醫療機構都明確指出,這套系統的作用只能是幫助研究。腫瘤治療的臨床決策是非常複雜的,機器的先進程度難以解決醫生診症的核心問題——即將數據鏈清楚地導出一套最佳的治療方案。
綜合來看,AI醫療在今天更適合解決那些瑣碎,重複度高的醫療工作,比如謄寫病歷, 看X光片,檢查化驗單等等,這些工作可以將醫生的時間解放出來,以作決策上的結論。但要讓AI醫療本身去治療重大疾病,無論是技術能力,還是安全風險上,它都無法承擔。
苛刻的應用條件,不能普惠的成本。
WATSON需要有複雜的特殊訓練,而學習過程對應用人才之數據,時間成本的要求,最終都會轉化為金錢成本,這註定如Watson這樣的產品不可能是普通大眾的朋友,即使是大公司也吃不消!因此AI認知計算系統的普遍化,在於使用更實惠、方便。
Sophia索菲亞——首個成為沙特公民的機器人
索菲亞是由中國香港的漢森機器人技術公司(Hanson Robotics)開發的類人機器人,索菲亞看起來就像人類女性,擁有橡膠皮膚,能夠表現出超過62種面部表情,索菲亞“大腦”中的計算機算法能夠識別面部,並與人進行眼神接觸。
2017年10月26日,沙特阿拉伯授予索菲亞公民身分。作為歷史上首個獲得公民身分的機器人,索菲亞當天在沙特說,它希望用人工智能“幫助人類過上更美好的生活”。
2019年3月12日,在一AI公司TCL春季發布會上,索菲亞驚喜亮相,並與TCL智能業務群負責人進行了深度交流。在發布會上,索菲亞對答如流,並對AI有著自己的思考,認為AI機器人可以與人類和平共處。沙特阿拉伯是一個保守的回教國家,待女性如次等公民, 索菲亞無疑為他們的AI創新項目,起了重大的宣傳作用!
醫學最新發展
AI在病人護理中的首批應用是成像(medical imaging),可以幫助改善癌症或心臟病的診斷。有許多類型的成像測試數字圖像,如X射線,CT掃描,MRI和超聲心動圖,所有這些成像方法的基本共通點是大量的高質量數據。
要具有非常完整的數據集,才可讓AI工作做得很好。此外,人眼通常對這些圖像中可能存在的一些圖案看不見。例如,乳房組織的細微變化,在識別早期癌症模式或早期心力衰竭模式方面,AI已經做了一些有趣的分析工作,即使是訓練有素的醫生也做不到。
筆者認為,醫生的角色可能會從數據採集員和分析師,轉變為病人的輔導,醫療數據可作為醫生治病和促進人們健康的工具之一。
隱私的威脅與人工智能的未來
人工智能可用於識別,跟蹤和監控多個使用電腦設備的用戶,無論他們是在工作,在家還是在公共場所。
語音識別和面部識別是人工智能越來越擅長執行的兩種識別方法,但這些方法有可能嚴重損害在公共領域的個人隱私。
某人的鍵盤打字模式,可以用來推斷他的情緒狀態;更令人擔憂的是,一個人的政治觀點、 民族認同,價值取向,甚至整體健康狀況也可以通過活動日誌,位置數據和類似指標等數據來確定。坊間出現的國際電腦黑客,通過在網上偷竊他人資訊,或傳播假新聞,勒索謀利,甚至影響競選過程,這些是對AI的誤用。
AI還可以使用信息作為輸入,在電腦庫獲得個人資訊,以便對人員進行排序、評分、評估和排名。而這通常是在未經任何同意的情況下完成的,並且人們通常無法影響或質疑這些評估任務的結果。某些專制社會用這些AI評分系統,作為操控人民的伎倆,比如利用這些信息限制人們在信貸、就業、住房或社會服務的機會,甚至限制公民權利。
人工智能等數字技術在我們生活的許多領域,作出了重大貢獻。如遙控機器人作為精巧的工匠,廣大民眾數據的收集,分析器,武器和探險隊等,一方面使人避開冒險,也大大增加了工作效率和認知計算系統的精確性,通過使用這些工具,我們能夠收集和分析大量信息,使人類得以解決以前沒有解決的社會弊病。
不幸的是,這些技術也可以被各種社會行動者利用,用來對付公眾,使我們失去個人在公司和政府機構中的隱私,而這只是人工智能對我們造成損害的一個例子。其他AI的負面影響,包括性機器人妓院的發展,目前還沒有任何法律上的監管,會導致賣淫和性交易的增加。
有些AI專業人士已發出“警告”:“人類必須與機器合併,否則在AI時代,人類會變得無關重要。”——Elon Musk, SpaceX,Tesla 創辦人。
福音派的原則與聲明
基督徒是社會的良心,是世界的光與鹽(參《太》5:13-16)。2019年4月29日,一群福音派的領袖們發表了一份人工智能原則宣告,列出12條聲明,幫助信徒和有識之士對AI技術的挑戰作出正面的回應,茲簡介如下:
1.神按著祂的形像造人,人工智能乃是神賜予我們的創造性的一部分。
神按著祂的形像造人,世界上每個人都具有內在的、平等的價值、尊嚴和道德力量,與所有的其他創造物不同。所以,類人機器人不過是人的創造物。不能與按著祂的形象被造的人同等,首個沙特機器人公民索菲亞完全是該國的廣告伎倆,而WATSON和DeepMind的認知計算系統也不可能代替人作任何道德決策的工具。
參考經文:《創》1:26-28;5:1-2;《賽》43:6-7;《耶》1:5;《約》13:34;《西》1:16、3:10;《弗》4:24。
2.技術的規範:人類應該以促進更加繁榮和減輕人類苦難的方式發展和利用技術。
當人按照神的道德意志使用人工智能時,就是人類順從神的諭令來管理創造和尊重神的一個例子。我們否認AI的使用在道德上是中立的。只有主耶穌能夠贖罪並使人類與造物主和解,人工智能技術無法滿足人類的最終需要,當其被用來使人墮落,失去價值和尊嚴的時候(如性機器人妓院),AI便全無益處。
參考經文:《創》2:15,25;《出》20:3、31:1-11;《箴》16:4;《太》22:37-40; 《羅》3:23。
3.人工智能不能取代人類道德決策的責任。
我們肯定,使用人工智能,可為人類推理和道德決策提供信息和幫助,因為它是一種擅長處理數據的工具,它模仿甚至超越人類的能力。但是只有按著神的形象被造的人類,才有道德決策的責任。醫生可以藉著採集和分析AI數據,更有效地輔導醫治病人,促進病人的健康。但是機器人和眾多的數據,不能取代醫生與病人的互動關係。
參考經文:《羅》2:6-8;《加》5:19-21;《彼前》1:5-8;《約一》2:1。
4.AI醫學應用要為人醫治疾病,促進健康,非創造超人。
我們確認醫學技術中與人工智能等相關的進步,可以提供和增強醫學診斷和治療的干預能力。唯物主義和功利主義視人為機器,我們拒絕以這些觀點來理解人工智能作為改善,改變或完善人類的手段的醫學應用。
“人非工具,而是目標(MAN IS AN END, NOT A MEANS)”乃是醫學倫理的普遍原則。AI可以幫助人收集和分析資訊,醫治疾病,保持健康,卻不能創造資訊,更不可能創造科幻小說中的超人!
參考經文:《太》5:45;《約》11:25-26;《林前》15:55-57;《加》6:2;《腓》2:4。
5.AI應辟除偏見,非製造偏見。
人工智能的設計和使用方式,應該使所有人享有同等的價值和尊嚴。人工智能應該被用作識別和消除人類決策中固有偏見的工具。人工智能不應該用於加強或推進任何意識形態或宣傳的方式,或以評分系統作為操控人民的標準,試圖在國家權力下剝奪人的自主權。
參考經文:《彌》6:8;《約》13:34;《加》3:28-29、5:13-14;《腓》2:3-4;《羅》12:10。
6.AI不可作性慾工具。
我們肯定人類性的行為,是神設計給終身婚約中男女之間的專屬關係。我們譴責因性用途而使用人工智能導致的人類物質化。根據神對人類婚姻的設計,人工智能不應該干涉或替代丈夫和妻子之間神設計的性行為表達。
筆者呼籲,政府應面對並正確回應如性機器人妓院的AI發展對社會的挑戰。
參考經文:《創》1:26-29、2:18-25;《太》5:27-30;《帖前》4:3-4。
7.AI應協助工作效率而非助長偷閒。
人工智能可用於幫助我們改進工作的方式和效率,也允許我們更充分有效地使用我們的時間和勞動力。我們否認人類的價值和尊嚴可以簡化為個人對社會的經濟貢獻,AI的發展不應取代員工和助長偷閒。
已有基督徒學者就自由市場和個人責任,對如何在AI自動化時代的經濟轉型,作了正面的分析,認為普遍大眾的就業機會不會被AI技術的發展所淘汰。
參《創》1:27、2:5、2:15;《賽》65:21-24;《羅》12:6-8;《弗》4:11-16。
8.運用數據不能侵犯隱私。
我們確認隱私和個人財產是個人權利和選擇的組合,不應被政府,公司,民族,國家和其他團體所侵犯,即使是為了追求共同利益,人工智能不應該被應用來扭曲真相。我們確認數據不應被錯誤處理,誤用或濫用於罪惡的目的,以加強偏見,強化強者或貶低弱者。社會不單要尊重人民個人隱私,也應積極地規範在網上誤用他人資訊的罪行。
參考經文:《出》20:15;《詩》147:5;《賽》40:13-14;《太》10:16;《加》6:2;《來》4:12-13;《約一》1:7。
9.正義的保安應用。
我們確認AI在警務,情報,監視,調查和其他用途方面具有合法的應用,支持政府尊重人權,保護和維護人類生命以及在繁榮社會中追求正義的責任。我們譴責使用人工智能來壓制神賦予所有人的言論自由或其他基本人權。我們否定專制國家用AI評分系統作為操控人民的伎倆。
參考經文:《羅》13:1-7;《彼前》2:13-14。
10.正義戰爭原則。
我們確認在戰爭中使用人工智能應該受到愛鄰舍和正義戰爭原則的支配。人工智能的使用可以減輕人的生命損失,為非戰鬥人員提供更好的保護,並為更好的政策制定提供信息。 所有與防禦相關的AI應用程序,例如基礎數據和決策制定流程,必須由合法機構不斷審查,而且對系統採取的任何行動問責。
我們否認人類機構或戰爭中的道德責任可以委託給人工智能。任何國家或集團都無權使用AI進行種族滅絕,恐怖主義,酷刑或其他戰爭罪行。
參考經文:《創》4:10;《賽》1:16-17;《詩》37:28;《太》5:44、22:37-39;《羅》13:4。
11.公共政策兼顧人權。
我們確認政府的根本目的,是保護人類免受傷害,懲惡揚善,維護公民自由,社會公眾在制定有關在社會中使用人工智能的政策方面,應有機會發揮作用,這些決定不應只留給那些開發這些技術的人或政府制定規範的人。我們否認政府,公司或任何權勢使用AI來侵犯神賦予的人權。
參考經文:《羅》13:1-7;《徒》10:35;《彼前》2:13-14。
12.人工智能的未來
我們確認人工智能將繼續以我們目前無法想像或理解的方式發展,包括遠遠超過許多人類能力的人工智能。但只有神才有創造生命的力量,人工智能的未來進步不會篡奪神作為生命的創造者的地位。教會在宣揚人的尊嚴方面發揮著獨特的作用,並呼籲社會的各個方面人道地使用人工智能。
我們否認人工智能可影響我們對人類價值的衡量,也否定人工智能將獲得與人類同等水平的尊嚴或價值。人工智能的未來發展,最終不會滿足我們對完美世界的渴望。雖然我們無法理解或了解未來,但我們並不害怕將來會發生什麽,因為我們相信神的全知全能,我們創造的任何東西都無法阻撓神的創造和救贖計劃,或取代人類作為神的形像的獨一載體。
科幻小說中AI可成為人身體死後的思想載體,人可因此得到永生。這只不過是人對完美世界的渴望,是不可能會實現的。
參考經文:《創》1;《賽》42:8;《羅》1:20-21、5:2;《弗》1:4-6;《提後》1:7-9;《啟》5:9-10。
小結
我們認識到人工智能將使我們能夠實現前所未有的可能性,同時承認人工智能所帶來的潛在風險;希望教會能夠積極主動地參與人工智能領域,而不是在AI已經影響我們的社區之後,才回應這些問題。上述聲明根據人性的本質,技術的承諾和對未來的希望提出呼籲,盼望使有識之士積極地面對AI的挑戰。
參考(全部參考資料鏈接請見《舉目》官網 www.behold.oc.org):
1.https://d1nwfrzxhi18dp.cloudfront.net/uploads/resource_library/attachment/file/197/Artificial_Intelligence_-_An_Evangelical_Statement_of_Principles.pdf。
2. https://erlc.com/resource-library/statements/artificial-intelligence-an-evangelical-statement-of-principles。
作者來自香港,獲生物學博士和神學碩士學位。在惠頓大學(Wheaton College)任教41年(1973-2014),現為該校生物學名譽教授。
(本文原刊於《舉目》官網2019.10.05)