機器人擁有“電子皮膚”觸覺,可操作易碎物品
機器人也能具備“觸覺”,從而勝任精細工作。
2025年世界人工智能大會(WAIC)于7月26日至28日在上海舉辦。由復旦大學可信具身智能研究院團隊自主研發(fā)的高精度、低成本“自適應視觸覺AI傳感器”首次公開露面。這個“觸覺夾爪”十分厲害,它能夠拿起豆腐、薯片、果凍等易碎物品,還能依據物品的紋理、軟硬和摩擦特性,精準地做到輕拿輕放。不僅如此,它還會舀湯圓,控制著勺子在液體里實時追蹤,舀起一顆漂浮的湯圓后,再放入另一個碗中。整個過程完全依靠機器人動態(tài)適應水流擾動和物體位置變化,在無人為控制的情況下展現出了高水平的手眼協(xié)同能力。



這只“觸覺夾爪”可以拿起豆腐、薯片、果凍等易碎品,還能精準舀湯圓。本文圖片均為“復旦大學”微信公眾號圖
“觸覺夾爪”能做到這些,得益于團隊研發(fā)的傳感器具有柔性、靈敏、“觸覺神經”、多維力學探測等特點,還有一套融合了視覺感知與AI算法的創(chuàng)新系統(tǒng)。抓取物品時,它柔軟的界面就像人類皮膚一樣,能夠適應復雜表面,會自然貼合物體形狀,不會像剛性爪那樣壓壞脆弱物品。同時,它可以感知多維受力,包括正壓力、切向力,甚至扭轉力,能靈巧、安全地與外界進行交互。
復旦大學可信具身智能研究院研究員陳文明介紹,團隊希望機器人不僅能感受到單一的傳統(tǒng)壓力,還能具備類似人類皮膚的感知能力,能感知壓力、剪切、扭轉、滑移等各種復雜力學交互信息。以往,以壓力信號為指標的傳感技術是單一的感官通道,而下一代具身機器人要突破操作能力瓶頸,必須具備類似人體皮膚的多維觸覺感知能力。

為解決這一問題,團隊在傳感層內置的微小攝像儀起到了關鍵作用。表面接觸到力后,傳感層的粒子會發(fā)生位移,進而被攝像頭捕捉到受力形變的信息,再借助AI強大的算力,能將復雜的觸覺信號轉化為高維視覺數據,并把這些視覺信號精準翻譯為力的分布信息,實現力的多維精確解耦。該傳感器靈敏度極高,達到每平方厘米4萬個感知點,具備超高的空間分辨率。
陳文明表示,利用AI的解耦算法,最小的感知力能做到0.01牛頓,而人類指尖皮膚的最小感知閾值大概在0.1牛到0.2牛之間。相比之下,“觸覺夾爪”的感知靈敏極限已達到人體的10倍。由此,該技術在精密加工、電子裝配、高精度分揀等行業(yè)具備應用潛能。
復旦大學介紹,高性能傳感器一端是內窺鏡鏡頭,另一端是多層硅膠材料,再搭配上神經網絡芯片,整體制作成本比傳統(tǒng)“電子皮膚”降低近50倍,量產后價格還能再下調,有望促進高價值行業(yè)的自動化升級。下一步,團隊計劃對“自適應視觸覺AI傳感器”進行市場化,同時開展視觸覺融合的大模型訓練,去解決行業(yè)內更有挑戰(zhàn)性的問題。該技術應用前景廣泛,包括搭載觸覺技術的機械夾爪精準抓取易損物品、工業(yè)制造領域中高精度分揀與精密裝配、輔助醫(yī)療領域完成微創(chuàng)手術等。該技術還可以和假肢相結合,研制出具備觸覺感知能力的先進智能假肢。
今年初,復旦大學可信具身智能研究院成立。研究院專注具身智能的前沿研究與應用落地,是復旦大學面向世界科技前沿的重要戰(zhàn)略布局?!白赃m應視觸覺AI傳感器”是研究院的重要成果之一,復旦大學可信具身智能研究院團隊曾獲2023年度國家自然科學二等獎,其15年的視覺技術積累為該項目的算法實現提供了堅實基礎。
本文僅代表作者觀點,版權歸原創(chuàng)者所有,如需轉載請在文中注明來源及作者名字。
免責聲明:本文系轉載編輯文章,僅作分享之用。如分享內容、圖片侵犯到您的版權或非授權發(fā)布,請及時與我們聯(lián)系進行審核處理或刪除,您可以發(fā)送材料至郵箱:service@tojoy.com





