人工智能武器化會帶來哪些可怕結果
關于人們對人工智能的威力和危險有很多猜測,但主要集中在人工智能在不久的將來會對我們的工作造成什么影響?,F(xiàn)在,科技領袖、政府和記者們正在討論人工智能如何制造致命的自主武器系統(tǒng),如果這項技術落入流氓國家或恐怖組織手中,將會發(fā)生什么。關于自主武器的道德和法律問題的辯論已經(jīng)開始,這并不是簡單的答案。
自主武器已經(jīng)發(fā)展起來
聯(lián)合國最近討論了自主武器的使用以及國際上禁止“殺手機器人”的可能性。這場辯論是在包括特斯拉的埃隆·馬斯克和Alphabet的穆斯塔法·蘇利曼在內(nèi)的100多名人工智能團體的領導下進行的,他們警告說,這些武器可能會導致“第三次戰(zhàn)爭大戰(zhàn)”。
雖然人工智能已經(jīng)在許多經(jīng)濟上的問題得到改進和增加效率(如從娛樂到運輸在到醫(yī)療保?。?,但在武器機器人能夠在不受人類干預的情況下自動運作的時候,許多問題都將被提出來了。
目前已經(jīng)有一些不同程度的人員參與的武器系統(tǒng)測試中了。
在英國,Taranis無人機預計將在2030年全面投入使用,并能夠取代人類駕駛的龍卷風GR4戰(zhàn)斗機,這是皇家空軍未來進攻空中系統(tǒng)的一部分。
包括美國和俄羅斯在內(nèi)的其他國家正在開發(fā)可以自主操作或遙控的機器人坦克。美國也有一艘自2016年發(fā)射的自主戰(zhàn)艦。盡管它仍在研發(fā)中,但預計擁有包括反潛武器在內(nèi)的進攻能力。據(jù)報道韓國使用的是一種三星SGR-A1哨槍,據(jù)稱可以自動開火來控制其邊境。
雖然這些武器的開發(fā)是為了盡量減少軍事沖突對人類生命的威脅,想象一下恐怖組織如果利用這些武器進行大規(guī)模殺傷,將會是一個什么樣的場景。
人工智能和殺手機器人的警告
法國國防巨頭Thales公司的研究副總裁阿爾文·威爾比(Alvin Wilby)告訴英國國會議員人工情報委員會說,流氓國家和恐怖分子“將在不久的將來掌握致命的人工智能”。謝菲爾德大學(University of Sheffield)人工智能和機器人研究的名譽教授諾埃爾?夏基(Noel Sharkey)也持同樣的觀點。他擔心這種武器的“非常糟糕的副本”會落入恐怖組織手中。
并不是所有人都認為人工智能弊大于利的,事實上,它對人類的潛在益處是巨大的。
人工智能可以幫助打擊恐怖主義
在人工智能領域的另一邊,F(xiàn)acebook宣布,它正在利用人工智能從其平臺上查找和刪除恐怖分子的內(nèi)容。在后臺Facebook使用圖像匹配技術來識別和防止已知恐怖分子從其他賬戶彈出的照片和視頻。該公司還表示,它可以利用機器學習算法在恐怖主義宣傳中尋找模式,這樣就能更快地將其從其他人的新聞推送中刪除。這些反恐措施將延伸到Facebook旗下的其他平臺,包括WhatsApp和Instagram。Facebook與包括Twitter、微軟和YouTube在內(nèi)的其他科技公司合作,創(chuàng)建了一個行業(yè)數(shù)據(jù)庫,用來記錄恐怖組織的數(shù)字指紋。
人類被迫放棄了生死抉擇
那些希望禁止殺傷性自動武器的團體,如阻止殺人機器人的運動,這是一種壓倒性的擔憂,即如果機器完全自主,人類就不會在戰(zhàn)爭任務中扮演決定性的角色。這就造成了一個道德困境。而且,如果一些邪惡的政權使用致命的自治系統(tǒng)來對付他們自己的人民呢?
就像威爾比先生說的,“妖怪已經(jīng)從封印中出來了”。和其他創(chuàng)新一樣,現(xiàn)在人工智能技術已經(jīng)開始影響我們的世界,我們需要盡最大努力去控制它。如果恐怖組織想用人工智能來作惡,也許我們最好的防御就是人工智能的攻擊。
?TPM,點檢,班組建設,管理能力咨詢培訓@左明軍老師.微信:13808969873