觸覺是人類感受世界的接口之一,但生物體的觸覺是一套非常復雜的系統。從皮膚接觸到神經細胞把微小的電信號傳遞到大腦,讓我們能夠對外界的溫度、力度、質地和重量等等形成感受,是一個非常復雜的過程,要讓機器人來復制觸覺系統是一件非常困難的事。
既然這么難,為什么機器人一定要帶上觸覺感知能力呢?因為有了觸覺以后,物流分揀機器人就可以像人類一樣抓取類似雞蛋這種易碎的食品;家用服務機器人也能感知抓取物品的力度大小,握手的時候還不會傷到人類。
觸覺機器人還能更好的幫到殘障人士。因為今天的機械假肢大部分是沒有觸覺的,很難完成類似于真人一樣的觸摸動作,擁有觸覺的電子皮膚可以讓殘障人士擁有類似于真人一般的體驗感受。
在學術和產業界,如何讓機器人擁有觸覺,大致有兩種技術路線。第一種以麻省理工學院計算機科學與人工智能實驗室(CSAIL)為代表,利用AI視覺來模擬觸覺感知。
麻省理工的視覺科學教授 Ted Adelson開發了一種機器人觸覺系統GelSight,已經可以實現一些精確的操作,比如把USB插頭準確插到電腦接口上。GelSight的機器手表面是一層柔軟的材料,后面有一個高精度的AI視覺攝像頭,能夠識別物體的紋理、硬度等信息,所以在抓取雞蛋的時候也不會擔心弄碎。
但這種技術有一定的局限性,比如無法捕捉快速滑落的物體,還有,光線不好的時候,AI視覺就不是那么有用了。
第二種技術路線叫電子皮膚,也是被更多科學家更看好的路線。簡單來說,就是模擬真實皮膚的功能,在物體表面的橡膠材料薄層里面塞入碳納米管這樣的導電材料,受到壓力后,通過檢測電流的變化,就可以判斷受力的大小。
電子皮膚可以讓機器人知道是否與人或物進行了接觸,隨時調節它們的行為動作和力量大小。不過電子皮膚依然會面臨一些產業化的難題,其中最主要的問題有兩個:
第一個是最讓科學家頭疼的問題,就是持續使用會導致磨損,尤其是在抓取硬金屬類物品的時候。
斯坦福大學化學工程教授鮑哲南提出過解決方案--用3D打印來修復。現在觸覺機器人大部分結構都是軟體材料,在需要的時候用數字化建模的方式打印出來,就可以常年保持更新了。
機器人觸覺的第二個難點就是產業化。觸覺機器人公司SynTouch的副總裁Peter Botticelli提到,觸覺技術從高校里出來只是第一步,更艱巨的探索是系統集成,也就是怎么把一個個傳感器、電機、電池和攝像頭做成一個穩定可靠的產品。
人形機器人這個領域,因為特斯拉入場,正在帶領產業界的快速進化。今天介紹的機器人觸覺,未來最大的應用之一很可能就是人形機器人。因為長得像人的機器人,更容易讓我們覺得有親切感,而一個帶有觸覺系統,能夠跟你握手、擊掌、擁抱的人形機器人,會讓它們進一步融入到人類的生活中。
這讓我想到本田公司在1986年啟動的人形機器人Asimo,投放在醫院、養老院等各種場景后發現,它很難完成基本的看護服務工作,更別說幫助老人穿衣服這些復雜動作,最后都成了養老院里的擺設。
不過在今年4月份,英國帝國理工學院機器人實驗室取得了一項突破,公開了機器人幫助人體穿衣服的技術成果。在這個實驗里,協作機器人完成了從衣架上取下衣服,然后找到在病床上的病人,展開衣服,抬起人體模型的手臂,最終完成穿衣的一整套服務的閉環。
這些成果令人欣喜,可以想象,在未來,具備觸覺能力的機器人能夠隨時感知老人的身體狀況,除了穿衣服還能夠喂飯、蓋被子、攙扶老人走路,或者完成日常里的細微動作,比如剝香蕉、切水果,在老齡化的未來社會,他們對于醫療服務領域的幫助將會不可限量。
不得不說,Asimo的大戰略方向是對的,奈何想法過于超前于時代了。好在我們現在正處于人工智能快速發展的階段,機器人觸覺技術的進步就是AI前沿的體現。未來機器人不再是冷冰冰的外殼,它們將擁有和人類比肩的智能和體能,機器人成為社會底層操作系統的進程就會大大加快了。