速感科技陳震:如何為機器人構建一個“三維世界”?
OFweek機器人網訊:如何讓機器看懂這個世界?如何真正實現全自主移動機器人?三維視覺技術將如何發展?繼“讓機器聽懂你的聲音”,鈦坦白又請來六位鈦客,探討如何讓機器看懂這個世界。本文根據速感科技創始人、CEO陳震在鈦坦白的分享整理。
陳震畢業於清華大學資訊交叉學科(電腦方向)資訊科學國家實驗室,主攻機器人交互技術。是中關村雙創服務機器人產業聯盟(RFC)成員、2016中關村U30成員、北京市海澱區青年英才、“雛鷹計畫”成員、多所國際頂尖學術機構訪問學者。曾擔任國家重點科研項目負責人,獲全國大學生挑戰杯金獎,參與多項機器人研究專案合作,個人擁有多項國家科技發明專利及學術論文。速感科技是一家面向智慧型機器人的系統化視覺解決方案提供商,目前已完成三輪融資。
以下是陳震在鈦坦白的分享:
從本科到研究生階段,再到2014年出來創業以後,這前後大概5年的時間裡,我始終聚焦在視覺領域的學習。所以能夠比較清晰地看到,在這幾年時間裡,以視覺為核心的,包括人臉識別、物體識別、空間定位、導航避障等在內的感知層演算法正在隨著底層人工智慧的基礎型演算法架構(比如我們現在熟知的機器學習、深度學習,以及最近很火的增強學習)和硬體感測器的發展產生著日新月異的變化。
在實驗室的時候,我的主要研究方向是為特種機器,包括微小型的無人機、功能性的機器人構建一套以視覺感知為主的機器人視覺系統,而在2011年後發展起來的這一波感知層演算法的進步與感測器硬體上面的推陳出新恰恰為這樣的研究提供了有利的支持,以至於到今天推動了整個資本市場上對於人工智慧專案的大熱與追捧。
下面,我將從機器人視覺系統、視覺技術原理和未來發展趨勢三個方面,為大家講述我們是如何為機器人構建起一個“三維世界”的。
機器人視覺系統發展與三維視覺的興起
我們知道“機器人”這一名詞是1920年一位捷克作家在一本科幻劇中提出的,到了1950年前後,另一位美國作家阿西莫夫才系統性的提出了“機器人學”這一概念,並給出了著名的機器人三定律。在那之後,從1970年,隨著電腦的興起,現代控制技術、感測器技術的發展,機器人開始了真正的產品化的進程。也正是從那個時候開始,搭載一顆基於CCD晶片攝像頭的機器人,可以為人們提供某一時刻的光學影像資訊記錄,而這也形成了最早期的機器人視覺系統。值得一提的是,1969年美國的阿波羅登月飛船上搭載的正是基於CCD感光晶片的照相機,為機器人視覺系統的硬體架構提供了系統性的參照。由於具備一定的簡單的記憶存儲能力,那個時候的機器人可以進行簡單的重複作業,但是對周圍環境沒有任何感知與回饋控制能力,我們稱當時的機器人為第一代機器人。
時間推進到80年代,視覺感測器、力觸覺感測器、接近感測器和電腦在這一時期進入到了快速發展期,特別是摩爾定律的發現代表著資訊技術的發展速度在這一時期確確實實到了頂峰。這一時期的機器人已經具備了一定的感知能力,能夠獲取作業環境與作業物件的部分資訊,並進行一定的即時處理,引導機器人進行作業。比如下圖我們看到的當時美國斯坦福研究所開發實現的Shakey移動機器人,擁有電子攝像頭、測距儀等感知設備,建立了一套底層到頂層的分層控制機制和當時最先進的視覺系統,用來説明機器人在非結構化的環境中進行獨立的推理、運動規劃與即時控制。這是當時人工智慧技術應用于移動機器人最為成熟的成果之一,Shakey的誕生自此也揭開了智慧移動機器人研究的大幕。
自此以後,世界各國都開始投入到了對移動機器人的研究上,而在這之中,視覺系統更是被公認為是機器人走向智慧的核心入口。因為在研究的推進中,人們需要機器人對環境擁有更完善的感知能力、邏輯思維能力、判斷決策能力,甚至是根據作業要求與環境資訊進行自主的工作。比如美國DARPA在90年代研究的ALV自主車可以選擇路標識別實現導航,達到10km/h的移動虛度,還採用了立體視覺、衛星導航等當時的先進技術。2004年NASA研製的火星探測器機遇號與勇氣號成功在火星表面登陸,搭載當時最為先進的圖像採集與立體視覺技術,説明探測器在複雜的星球表面完成各項未知任務。而也正是在這樣一個時期,三維視覺系統在移動機器人上的重要性被首次提出。
陳震畢業於清華大學資訊交叉學科(電腦方向)資訊科學國家實驗室,主攻機器人交互技術。是中關村雙創服務機器人產業聯盟(RFC)成員、2016中關村U30成員、北京市海澱區青年英才、“雛鷹計畫”成員、多所國際頂尖學術機構訪問學者。曾擔任國家重點科研項目負責人,獲全國大學生挑戰杯金獎,參與多項機器人研究專案合作,個人擁有多項國家科技發明專利及學術論文。速感科技是一家面向智慧型機器人的系統化視覺解決方案提供商,目前已完成三輪融資。
以下是陳震在鈦坦白的分享:
從本科到研究生階段,再到2014年出來創業以後,這前後大概5年的時間裡,我始終聚焦在視覺領域的學習。所以能夠比較清晰地看到,在這幾年時間裡,以視覺為核心的,包括人臉識別、物體識別、空間定位、導航避障等在內的感知層演算法正在隨著底層人工智慧的基礎型演算法架構(比如我們現在熟知的機器學習、深度學習,以及最近很火的增強學習)和硬體感測器的發展產生著日新月異的變化。
在實驗室的時候,我的主要研究方向是為特種機器,包括微小型的無人機、功能性的機器人構建一套以視覺感知為主的機器人視覺系統,而在2011年後發展起來的這一波感知層演算法的進步與感測器硬體上面的推陳出新恰恰為這樣的研究提供了有利的支持,以至於到今天推動了整個資本市場上對於人工智慧專案的大熱與追捧。
下面,我將從機器人視覺系統、視覺技術原理和未來發展趨勢三個方面,為大家講述我們是如何為機器人構建起一個“三維世界”的。
機器人視覺系統發展與三維視覺的興起
我們知道“機器人”這一名詞是1920年一位捷克作家在一本科幻劇中提出的,到了1950年前後,另一位美國作家阿西莫夫才系統性的提出了“機器人學”這一概念,並給出了著名的機器人三定律。在那之後,從1970年,隨著電腦的興起,現代控制技術、感測器技術的發展,機器人開始了真正的產品化的進程。也正是從那個時候開始,搭載一顆基於CCD晶片攝像頭的機器人,可以為人們提供某一時刻的光學影像資訊記錄,而這也形成了最早期的機器人視覺系統。值得一提的是,1969年美國的阿波羅登月飛船上搭載的正是基於CCD感光晶片的照相機,為機器人視覺系統的硬體架構提供了系統性的參照。由於具備一定的簡單的記憶存儲能力,那個時候的機器人可以進行簡單的重複作業,但是對周圍環境沒有任何感知與回饋控制能力,我們稱當時的機器人為第一代機器人。
時間推進到80年代,視覺感測器、力觸覺感測器、接近感測器和電腦在這一時期進入到了快速發展期,特別是摩爾定律的發現代表著資訊技術的發展速度在這一時期確確實實到了頂峰。這一時期的機器人已經具備了一定的感知能力,能夠獲取作業環境與作業物件的部分資訊,並進行一定的即時處理,引導機器人進行作業。比如下圖我們看到的當時美國斯坦福研究所開發實現的Shakey移動機器人,擁有電子攝像頭、測距儀等感知設備,建立了一套底層到頂層的分層控制機制和當時最先進的視覺系統,用來説明機器人在非結構化的環境中進行獨立的推理、運動規劃與即時控制。這是當時人工智慧技術應用于移動機器人最為成熟的成果之一,Shakey的誕生自此也揭開了智慧移動機器人研究的大幕。
自此以後,世界各國都開始投入到了對移動機器人的研究上,而在這之中,視覺系統更是被公認為是機器人走向智慧的核心入口。因為在研究的推進中,人們需要機器人對環境擁有更完善的感知能力、邏輯思維能力、判斷決策能力,甚至是根據作業要求與環境資訊進行自主的工作。比如美國DARPA在90年代研究的ALV自主車可以選擇路標識別實現導航,達到10km/h的移動虛度,還採用了立體視覺、衛星導航等當時的先進技術。2004年NASA研製的火星探測器機遇號與勇氣號成功在火星表面登陸,搭載當時最為先進的圖像採集與立體視覺技術,説明探測器在複雜的星球表面完成各項未知任務。而也正是在這樣一個時期,三維視覺系統在移動機器人上的重要性被首次提出。