淘新聞

“終結者”來臨?戰鬥民族竟造雙槍機器人

提到雙手使槍的機器人,你腦海中是不是立馬浮現出《終結者》中施瓦辛格那張冷漠無情的臉和令人髮指的肌肉?

《終結者》

但是這款機器人,並非來自美國,而是來自我們的“好鄰居”俄羅斯。

上周,俄羅斯副總理Rogozin在Twitter上對俄羅斯的宇宙機器人FEDOR(Final Experimental Demonstration Object Research,最終實驗示範物件研究)公開表達了讚美。而這個機器人的最大特點是——可以雙手同時使用手槍。

“機器人FEDOR可以用雙手展示射擊技巧,”他寫道。同時他還補充說:

“我們創造的不是一個終結者,而是在各個領域具有重大意義的人工智慧。戰鬥機器人是創造智慧型機器的關鍵。它可以被應用於航太和太空領域。”

槍支不是FEDOR所掌握的唯一技能。俄羅斯開發團隊最初的開發目的是打造一個救援機器人,工程師們也訓練了FEDOR擰螺絲燈泡、使用鑰匙和駕駛汽車的技能。

儘管Rogozin作出了這些聲明,但這個線上發佈的視頻仍然強調了該機器人在軍事方面的應用。

在這個視頻中,FEDOR雙重揮舞手槍,輕鬆地擊中目標。 但Rogozin之後在Facebook上堅持認為,這項任務僅僅是展示FEDOR其行動的靈巧,以展示這背後控制機器人做決定的演算法。

經過兩年半的發展,FEDOR在2016年成功地在一堆煤渣中進行了鑽孔,這一事件在當時成為頭條新聞。

當時俄羅斯宣佈計畫在2021年前將人形機器人發送到國際空間站以協助宇航員。它甚至有可能是俄羅斯太空貨船Federatsiya在2021年首航的唯一乘客。開發者的目標是有一天能讓FEDOR代替人類在過於危險的環境中工作。

俄羅斯先進研究基金會主任Andrey Grigorie說,FEDOR仍然需要進一步研發,而該基金會上周宣佈將與俄羅斯教育部一起舉行公開競賽,以找到能夠為機器人開發高科技軟體的程式師。

據報導,比賽將於今年5月開始,至2018年2月28日結束。這項比賽將對俄羅斯本科生,研究生,研究人員,教授和創意團隊進行開放。

實際上,在FEDOR之前, 俄羅斯的SAR-400 and SAR-4001、德國的 AILA,和中國的“小天”宇航員機器人已經先後進行過太空探索。

中國“小天”航太機器人

此外,美國航空航天局正在開發一種稱為Valkyrie的太空機器人,他們希望這個機器人可以在進行大型載人航太任務之前幫助建造火星殖民地。這個機器人可以自由移動,自己做決定,以及完成一些任務。

NASA將四個同樣的機器人送往了四個研究機構,希望通過一場競賽選出最符合要求和期待的太空機器人。

在決賽中,每個隊伍的Valkyrie機器人都將面臨一個挑戰,即幫助修復被沙塵暴破壞了的火星棲息地,這涉及三個目標:校準通訊設備,修理太陽能陣列,修復棲息地管道洩漏。

美國Valkyrie機器人

空間機器人挑戰賽是美國宇航局百周年挑戰計畫的一部分,所設置的100萬美元獎金將獎給那些可以開發更加智慧的人形機器人的團隊,使得它們更好地與宇航員一起工作,甚至獨自進行工作,為未來的宇宙空間探索做準備。

此外,日本航空航太研究所正在研究小型建築機器人,以幫助在月球和火星建造棲息地。

該機構與日本Kajima公司合作,後者已經在地球上測試了自主的工程機械。該公司的A4CSEL機器人以前曾被用於在日本南部建造水壩。工作人員通過平板電腦向與網路連接的推土機發出指示,推土機便可以借助GPS和加速度晶片自主進行工作。

Kajima認為,這項建築科技可用於調整地面坡度等狀態,以準備建造太空中的發射台或建築物。這個日本建築公司也計畫開發新的軟體,使機器相互通信,不會相互干擾。

日本航天局希望這個機器人可以在2030年之前在月球上建造4-6人居住的棲居地,在2040年前在火星上製造同等大小的棲居地。

此外,日本航天局也與田口實業公司等多家公司合作,這些公司的部分任務是生產超輕的運輸器械,以便運送到太空。

與此同時,東京建築公司正在研究從月球灰塵中製造磚塊,而Sakai重工業正在進行低重力條件下壓緊土地的實驗。

儘管俄羅斯人強調這款機器人絕不是“終結者”的翻版,但還是有人對人工智慧統治世界表達了恐懼。比爾蓋茨和埃隆馬斯克都對人造智慧可能接管人類表示過擔憂。

“我很關心超智慧,最開始機器——而不是超級智慧——將為我們做很多工作,,如果我們很好地管理,這應該是一件好事,”蓋茨在一篇Reddit Ask Me Anything的採訪中寫到。

“但在這之後的幾十年,人工智慧就會強大到令人擔憂的程度,我同意埃隆馬斯克等人的擔憂,我不明白為什麼有些人居然一點不在乎。”

在“機器人可能威脅人類群體”的恐慌中,人們開始努力阻止殺手機器人的興起。 根據科技媒體Tech times 報導,來自Google人工智慧部門DeepMind的研發人員和牛津大學的研究人員已經合作,開發出“人工智慧防殺人開關”。

專家說,“大紅色開關按鈕”是必要的,這樣人類就可以阻止AI做危險的事情。他們也認為AI需要被編碼,以使他們無法學會忽略人類的指令。

致力於機器人與人工智慧的研究人員同樣發出呼籲,要求對自主武器進行先發制人的禁令。

所謂自主武器,是指在沒有人為干預的情況下可以選擇和參與打擊目標的武器。典型的例子是可以追蹤和消滅敵對戰鬥分子的、具備武裝的直升機。

去年在日內瓦,123個國家對是否啟動“就殺手機器人的危險進行正式討論”進行投票,聯合國也不得不開始採取行動。

“停止殺手機器人“活動的聯合創始人Stephen Goose表示:

“從本質上講,他們決定從談判階段轉移到行動階段,在這個階段,他們預計會產生具體的結果。”

有經濟實力的人也可以添一份力。 Elon Musk曾經公開表達了對AI所具備的潛能的恐懼,他已經捐了一大筆錢來進行人工智慧研究。

作者| 廖垠雪

編輯| 傅博

(發佈/韋康)