2026年2月28日,以“啟智涌現”為主題的第二屆智能機器人通用技術底座開發者大會暨啟智技術成果發布會通過線上直播形式圓滿落幕。本次大會并非一次從零開始的全新發布,而是對啟智核心能力的一次系統性迭代升級與完整呈現。大會不僅展示了包括新一代人形機器人平臺、關鍵開發工具與核心系統的重大進展,更通過一個完整的商超理貨作業場景,公開驗證了多機器人如何自主協同完成復雜作業流程,標志著啟智在推動機器人技術從“炫技”走向“實干”的路徑上取得了階段性進展。
啟智機器人總經理游瑋博士在開場演講中回顧了過去一年機器人“破圈”的盛況,同時尖銳地提出了行業的核心命題:機器人技術何時能大規模走出聚光燈,自主、可靠地創造實際價值?他啟智給出的答案是持續構建并深化“智能機器人通用技術底座”——一套旨在讓智能生長、讓經驗復制、讓開發簡化的賦能體系。本次大會,正是這套底座能力經過一年迭代后,交出的首份“實干”成績單:
yobot平臺家族:為“實干”場景深度進化
大會首先展示了基于通用底座進化而來的機器人平臺家族——yobot系列。相較于初代,本次亮相的yobot家族更強調“為實干而生”的定位,涵蓋了包括側重運動能力探索的人形機器人R2V1、已在蕪湖弋磯山醫院投入服務的輪式機器人W2,以及能夠穩定勞動作業的人形機器人R2V2。


這一機器人平臺家族不僅是智能算法與控制的載體,更是通過與清華大學GOPS訓練框架等深度集成,將實際作業中積累的數據與經驗反哺到底座,實現了從“技術驗證”到“能力沉淀”的閉環。

智能機器人通用技術底座:從“可用”到“高效易用”的飛躍
本次大會的核心在于展示底座三大核心模塊——墨斗IDE、大衍數據平臺、OpenmindOS在經過一年深度打磨后的協同效能。它們已從各自獨立的工具,進化為一套能無縫協作、大幅提升機器人應用開發與部署效率的完整工作鏈:
墨斗IDE:實現開發民主化與專業化提效
墨斗IDE通過引入 “Vibe Coding”范式實現變革。它允許店長、工人等場景專家無需懂編程,通過使用自然語言描述任務(如“為飲料區貨架補貨”),IDE即可理解意圖并自動生成包含多機協作邏輯的可執行應用,極大降低了開發門檻,使場景專家成為開發主導者。
針對專業開發者,IDE迭代了更強大的效率工具:在仿真階段預判機械干涉與可達性,結合2D/3D包絡圖優化布局,預計減少超30%現場調試時間;通過虛擬控制器與軸控制面板,支持在PC端完成關節與笛卡爾空間的精準點動以及復雜的邏輯驗證與程序調試,真正實現“軟硬解耦”;利用模型輕量化與一鍵生成DXF工程圖等功能,提升了仿真流暢度,并確保了仿真布局與現場CAD圖紙的無縫銜接,實現“所見即所得”。
以上種種功能的目的都指向一處,用智能打破機器人應用的開發壁壘、效率困局。

大衍數據平臺:構建“數據-技能”高效轉化流水線
大衍數據平臺著力破解機器人技能學習的效率瓶頸。平臺通過異構采集模塊統一接入多種設備,提升數據采集效率;融合AI智能預標注技術,將標注一致性提升至90%以上,大幅降低數據準備成本。而大衍數據平臺與清華大學團隊共建的體系化評估模塊,則能從“質量”與“價值”雙維度智能篩選優質數據,將數據準備周期縮短約30%,為模型訓練提供穩定“燃料”。

此外,大衍數據平臺還將依托“蕪湖矽客機器人未來社區”的豐富場景,讓機器人能在真實與仿真環境中進行大規模、多樣化的自主學習與實戰演練,構建一個開發的“技能庫”。

平臺計劃在建設初期免費開放基礎技能庫,以降低行業應用門檻,長遠旨在培育一個高價值技能可流通的生態,從根本上打破機器人能力與應用之間的壁壘。
Openmind OS:邁向多機協同與智能決策的控制中樞
作為打通智能“思考”與物理“行動”的關鍵一環,Openmind OS的迭代旨在解決傳統控制系統與智能算法發展脫節的行業悖論。
在過去的一年中,Openmind OS已成功適配工業、復合及人形機器人等主流品類,構建了一個統一的任務調度與通信中樞,能夠讓不同形態、不同功能的機器人在同一空間內有序協作、狀態同步。

此外,Openmind OS實現了對主流機器人開發框架ROS的深度兼容。這并非簡單的接口調用,而是在保障自主可控的前提下,為ROS生態的廣大開發者提供了近乎零門檻的遷移路徑,使其能夠沿用熟悉的開發習慣,快速在Openmind OS平臺上驗證與部署現有算法,極大地降低了生態切換的成本與門檻。同時,其分層系統架構在保障底層控制安全可靠的同時,向開發者開放了豐富的定制空間。
最后,面對復雜場景和需求,Openmind OS深度融合了智能感知與決策能力。它不僅能夠基于幾何模型自動規劃抓取點,更能通過融合視覺與高精度力覺反饋,實現“剛柔并濟”的精準操作。同時,OS深度融合感知與決策,能調用大衍平臺的技能模型,形成毫秒級“感知-決策-控制”閉環,以應對復雜場景的不確定性,推動開發模式向“現代工業”范式演進。
關鍵驗證:商超理貨場景下的完整作業閉環
本次大會最引人注目的環節,是通過一段完整的商超理貨作業視頻,實景驗證了上述三大模塊與機器人平臺的協同能力,清晰地展示了機器人自主完成復雜物流任務的可行性:
任務啟動與編排:憑借墨斗IDE,以自然語言快速生成了“從倉庫取貨、開箱、并將商品擺上貨架”的完整任務流,整個過程僅需數分鐘。
協同執行:在Openmind OS的統一調度下,復合機器人基于視覺自主導航,識別目標貨箱并穩定抓取、搬運至理貨區。隨后,人形機器人無縫接替,它首先精準識別紙箱并用手部動作自主翻開箱蓋,然后基于視覺從箱內識別并抓取水杯,最后識別貨架空位,完成精準擺貨與理貨。雙機協作流暢,全程無人工干預。
技能支撐:機器人所有靈巧且穩定的動作,如適應不同物體的抓取、柔順的開蓋、精準的放置,其背后技能模型均由大衍數據平臺提供的“技能庫”訓練與優化而來。
這一場景成功地將“機器人自主作業”從概念推向了可驗證的實踐,生動詮釋了“實干”的內涵。

開發者生態:從技術閉環到生態開放
本次發布清晰地勾勒出啟智的戰略路徑:通過自研墨斗IDE、大衍數據平臺、OpenmindOS,形成從任務定義到物理實現的完整技術閉環,系統性降低機器人開發與應用的門檻。
與此同時,啟智積極構建涵蓋技術、商業、開發者的立體生態:與清華大學、中國科學技術大學等頂尖高校共建實驗室,拉高技術創新上限;與華為、粵港澳及長三角國家技術創新中心等產業伙伴開展場景共建,沉淀可復用的平臺能力;并正式發布“啟智開發者扶持計劃”,區分研究型與應用型路徑,旨在將少數人的科研成果轉化為服務多數人開發的能力。
臨界點之上:開啟機器人智能“涌現”
站在機器人智慧“涌現”的臨界點,啟智更清晰洞察下一步發展的關鍵:機器人的通用認知能力與高質量數據供給。
攻關大腦:研發原生世界模型HumanGPT,讓機器人真正“理解”物理世界
當前基于語言模型“改裝”的機器人智能,難以應對復雜物理世界的推理。啟智下屬機器人大模型團隊費曼智能正探索推進名為“HumanGPT”的原生世界模型。它并非語言模型,而是一個內化了4D時空與物理規律的“思維沙盤”,能夠通過蒸餾人類作業時的多模態認知數據(如視覺、力覺、眼動等),讓模型直接習得物理因果,能像人一樣在行動前進行推演;并實現全模態信息統一理解與決策控制一體化。此舉旨在推動行業從“大模型改裝”邁向“原生世界模型”,搶占具身智能的認知高地。

核心數據:以“人類全模態技能采集服系統”為核心,構建人類中心化的數據飛輪
高質量數據的匱乏嚴重制約模型進化。啟智提出以“技能服”為核心的范式革新,從“采集機器人動作”轉向“采集人類專家技能”。
這將是一套輕量化穿戴設備,可在一線人員自然作業時,同步記錄其視覺、肌電、力覺及反映認知的眼動信號,從而捕獲包含人類隱性經驗與物理交互本質的“黃金數據”。未來,該模式旨在通過生態化部署,吸引大量行業工作者貢獻數據,形成“數據越多→模型越強→應用越廣”的自我強化飛輪,從根本上破解數據瓶頸。
從展示今日可用的完整底座與協同作業案例,到明確未來攻堅的原生模型與數據飛輪,啟智的路徑圖已然清晰:以開放的通用技術底座為沃土,以原生世界模型為智能內核,以人類中心的數據生態為進化燃料,三位一體,共同推動機器人智能實現從“量變”到“質變”的涌現。
本次開發者大會,是一個里程碑,更是一個新起點。啟智堅信,當行業最棘手的認知與數據難題被系統化解,當全球開發者的創造力于此匯聚,智能機器人賦能千行百業的“實干時代”將加速到來。啟智期待與所有生態伙伴并肩,共同跨越臨界,迎接那智能涌現、價值迸發的未來。