版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 举报,一经查实,本站将立刻删除。如若转载,请注明出处:http://ti8.net/__hun___han/7788.html
定制报告-个性化定制-按需专项定制研究报告
行业报告、薪酬报告
联系:400-6363-638
《清华五道口:2024自主手术机器人行业研究报告(63页).pdf》由会员分享,可在线阅读,更多相关《清华五道口:2024自主手术机器人行业研究报告(63页).pdf(63页珍藏版)》请在本站上搜索。 1、 研究报告 (2024 年第 16 期 总第 48 期)2024 年 09 月 14 日 自主手术机器人行业研究报告自主手术机器人行业研究报告1 1 科创金融研究中心 朱雅姝 刘碧波 【摘要】【摘要】行业图谱研究是本中心科技成果转化研究的一项子课题,目标定位于清晰理解前沿科技成果的技术核心、科创企业的技术竞争力及科研工作者的研究进度,从而助力科技成果转化效率的提升。行业图谱研究将以系列形式展开,选取国家战略重点科技领域的商业应用场景逐一进行,时效性较强。本报告为行业图谱研究之生物医学系列中的课题:自主手术机器人行业研究报告。自主手术机器人作为手术机器人领域的新兴方向,旨在通过集成先进的计算机视2、觉、感知、运动控制和人工智能技术,实现对手术过程中的环境感知、信息处理和任务执行,从而提高手术 1 感谢资本市场与公司金融研究中心的实习生王杰同学对本报告的助研工作。王杰同学是清华大学医学院 2021级博士。感谢北京协和医院的花苏榕医生及其团队对本报告提出的宝贵意见。的精确性、安全性和效率,减少对医生直接手动操作的依赖。近年来,自主手术机器人正处于技术进步、临床需求等因素驱动下快速发展阶段。自主手术机器人主要应用于简单重复,并且任务量很大的手术子任务,比如缝合等。自主手术机器人的关键技术涵盖感知系统、决策系统和执行系统,其中感知技术决定着该技术水平的核心竞争力。在全球范围内,以美国北卡罗来纳大3、学威明顿分校等研究机构研发的 STAR(Smart Tissue Anastomosis Robot)自主手术机器人系统为代表,正引领着自主手术机器人的快速发展。这些系统通过集成光学相机、近红外荧光成像等多源感知技术,以及基于深度学习的组织识别与跟踪算法,实现了对手术环境的实时感知;并采用基于规则或强化学习的智能规划算法,对缝合等关键手术步骤实现自主操控。目前,STAR 系统在动物实验中展现出优于人工缝合的精确性和稳定性。根据自主化程度,自主手术机器人可分为 6 个等级。STAR 机器人系统是目前自主化程度最高的自主化手术机器人系统,自主等级为 3 级,即有监督的自主性。该系统的自主化程度有望4、得到进一步的提升。在国内,以北航和北邮为代表的研究团队在手术自主化领域有相应的研究和尝试,其中的感知系统主要是根据双目摄像头进行设计。尽管相关的研究已经发表,但是目前的自主化的手术任务,比如手术切口闭合、手术中组织表面血液移除,相较简单。同时,目前国内的研究只停留于实验室模型验证阶段,需要进一步的动物实验和临床实验验证。自主手术机器人的发展仍面临诸多挑战:一是核心技术有待突破,尤其在感知、决策和执行层面的精准度和鲁棒性方面;二是标准规范 亟需建立,涵盖功能安全、伦理道德等方方面面;三是临床验证有待加强,需在实际手术环境下全面评估其安全性和有效性;四是法律法规和商业模式尚不明晰,影响产业化进程。5、基于上述原因,当下还没有成熟的自主手术机器人产品。未来,随着人工智能、微纳制造等共性技术的进步,以及手术机器人专用芯片、精密传感器等关键元器件的国产化,自主手术机器人有望在精准度、微创化、智能化等方面取得重大突破,并逐步在泌尿、妇科、普外等临床科室实现常规应用,提升患者的诊疗质量。届时,还可融合 5G、云计算等信息基础设施,建立基于自主手术机器人的智慧手术平台,积累构建手术知识图谱,反哺基础研究。总之,在智能医疗的时代,自主手术机器人已成为推动手术机器人产业化的下一个风口,具有广阔的应用前景和巨大的市场潜力。面向未来,亟需政产学研用各方协同发力,攻克共性技术难题,优化法律法规环境,加速行业标准6、制定,构建基于自主手术机器人的智慧医疗生态系统,推动我国手术机器人技术实现弯道超车、引领全球。Research Report September 14,2024 Atlas of Autonomous Surgical Robot 2 Research Center for Sci-Tech and Finance Yashu Zhu,Bibo Liu Abstract:The creation of an Atlas of the Industry is a sub-project within our centers research on the transformation of sc7、ientific and technological achievements.The objective is to gain a comprehensive understanding of the core technologies driving cutting-edge innovations,assess the technological competitiveness of leading enterprises,and track researchers progress to enhance the efficiency of technology transfer.Thi8、s research will be conducted in a series,focusing on commercial applications in key national strategic scientific and technological fields,with a strong emphasis on timeliness.This report delves into the autonomous surgical robots industry within biomedical research.Autonomous surgical robots repres9、ent an emerging field in surgical robotics aimed at enhancing surgery through advanced technologies such as computer vision,perception,motion control,and 2 Thanks to intern Jie Wang of Research Center for Sci-Tech and Finance at PBCSF Tsinghua University for his research assistance in this report.Ji10、e Wang is PhD.student at School of Biomedical Engineering,Tsinghua University.Thanks to Dr.Surong Hua and his team from Peking Union Medical College Hospital for their valuable comments on this report.artificial intelligence.These innovations seek to improve surgical accuracy,safety,and efficiency w11、hile reducing the reliance on direct manual intervention by surgeons.Recent years have seen rapid advancements in autonomous surgical robots driven by technological progress and clinical demands.They are primarily used for straightforward,repetitive tasks such as suturing.Globally,the STAR(Smart Tis12、sue Anastomosis Robot)system,developed by the University of North Carolina at Wilmington and other institutions,stands at the forefront of this development.STAR integrates multiple sensing technologies,including optical cameras and near-infrared fluorescence imaging,coupled with deep-learning algori13、thms for tissue recognition and tracking.It employs intelligent planning algorithms to autonomously perform critical surgical steps like suturing,demonstrating superior accuracy and stability compared to manual methods in animal trials.The STAR system currently operates at level 3 autonomy,indicatin14、g supervised autonomy,with expectations for further enhancements.In China,research teams from Beijing University of Aeronautics and Astronautics(BUAA)and Beijing University of Posts and Telecommunications(BUPT)are exploring autonomous surgical technologies,primarily using binocular camera-based perc15、eption systems.Although initial research has shown promise,current applications in surgical tasks like incision closure and tissue surface blood removal remain relatively basic.Domestic efforts are still confined to laboratory validations,necessitating further validation through animal and clinical 16、trials.The development of autonomous surgical robots faces several challenges:advancing core technologies,establishing standards encompassing safety and ethics,validating clinical effectiveness under surgical conditions,and navigating unclear legal frameworks and business models,which hinder industr17、ialization.For these reasons,there are no mature autonomous surgical robot products available today.Looking forward,advancements in artificial intelligence,micro-nano manufacturing,and localized components are expected to propel autonomous surgical robots towards greater precision,minimally invasive18、 capabilities,and intelligence.This evolution anticipates routine integration into clinical departments such as urology,gynecology,and general surgery,thereby enhancing patient care quality.Future prospects include integrating 5G and cloud computing into an intelligent surgical platform based on aut19、onomous robots,building a comprehensive surgical knowledge base through basic research.In summary,autonomous surgical robots are poised to drive the industrialization of surgical robotics in the era of intelligent healthcare,promising extensive applications and substantial market potential.Success h20、inges on collaborative efforts among governmental,industrial,academic,and research stakeholders to surmount technical barriers,optimize regulatory frameworks,establish industry standards,and foster an intelligent medical ecosystem centered on autonomous surgical robots.This collective endeavor aims 21、to position China at the forefront of surgical robotics innovation globally.目录 一、自主手术机器人绪论.2(一)定义.2(二)主要组成部分.3(三)自主化等级划分.6 二、自主手术机器人研究现状.8(一)国外研究现状.9(二)国内研究现状.22(三)国内外自主手术机器人研究团队.24 三、其他自主医疗机器人研究现状.26(一)自主超声机器人.27(二)自主放射治疗机器人.28 四、自主手术机器人关键技术行业调研.29(一)感知部分行业调研.30(二)执行部分行业调研.33 五、自主手术机器人行业发展面临的考验及未来展22、望.42 六、专业术语解析.43 参考文献.46 图表目录 图 1-1 自主手术机器人系统主要组成部分.4 图 1-2 自主手术机器人等级划分.7 图 2-1 肠道吻合术手术机器人系统.10 图 2-2 升级的肠道吻合手术机器人系统.11 图 2-3 可辅助拉线的自主缝合机器人系统.12 图 2-4 STAR机器人系统(a),近红外荧光成像系统(b),近红外荧光成像系统硬件组成(c),近红外荧光成像系统 LED环形灯(d).13 图 2-5 STAR系统(a),Endo360环形针(b),近红外荧光成像系统(c).14 图 2-6 STAR系统(a),Endo360环形针(b),缝合工具的工作23、流程(c).15 图 2-7 光场相机.16 图 2-8 视觉系统样包括近红外相机及光源和光场相机(a),近红外三维系统注册(b)和追踪方法(c).17 图 2-9 三维视觉系统装置(a),三维内窥镜光学示意图(b).18 图 2-10 三维视觉系统装置(a),三维内窥镜光学示意图(b).19 图 2-11 STAR系统(a),基于模型的缝合规划(b),无标记组织跟踪器可以实时跟踪自主缝合的标记点(c).20 图 2-12 STAR系统发展历程.20 图 2-13 双臂自主伤口缝合机器人系统.22 图 2-14 手术过程中组织表面血液移除手术机器人系统.23 图 2-15 自主钉皮拆钉机器人系24、统.24 图 3-1 超声实时引导的冷冻消融手术机器人系统.27 图 3-2 CyberKnife M6放射外科机器人(Accuray Inc.USA).28 图 4-1 STAR手术机器人的上下游.30 图 4-2 光场相机工作原理.31 图 4-3 邦尼医疗科技(常州)有限公司的腹腔镜自动缝合器.34 图 4-4 腹腔镜手术机器人系统组成(以达芬奇手术机器人为例).39 表 3-1 自主手术机器人相关研究团队.25 表 4-1 自动缝合器主要公司.36 表 4-2 2020年以来腹腔镜手术机器人公司融资统计.38 表 4-3 国内外腹腔镜手术机器人特点介绍.41 1 自主手术机器人是手术机25、器人领域中一个充满前景、快速发展的新兴研究方向。通过集成先进的机器人技术、人工智能算法以及医学影像分析等多学科交叉的前沿成果,自主手术机器人旨在实现对手术操作过程的自主感知、决策与执行,提升手术精准度和安全性,减轻医生的劳动强度,革新外科手术的理念和范式。这一颠覆性技术的出现,标志着外科手术即将迈入自主智能的新时代。目前自主手术机器人尚处于研究探索阶段,全球范围内已涌现出一批代表性的研究成果。以美国北卡罗来纳大学威明顿分校研发的 STAR系统为例,可实现对手术环境的实时感知,达到了 3级自主化水平。2022 年 Saeidi 等人1在Science Robotics上发表的以“Autonomo26、us robotic laparoscopic surgery for intestinal anastomosis”为题的文章点燃了手术机器人领域对手术自主化的探索热情。站在智能制造和智慧医疗的风口,自主手术机器人正以崭新的技术范式重塑外科手术格局。展望未来,随着人工智能、精密传感、微纳制造等共性技术的进步,以及智能化手术路径规划、术中实时导航等专用技术的突破,拥有感知、决策、执行、自主学习等多维智能的高端自主手术机器人将不断涌现,助推外科手术迈向高精尖微的新境界。这不仅将进一步提升患者诊疗效果,更将重构手术机器人产业竞争格局,为推进健康中国建设注入源源不断的科技动能。在此背景下,本报告以期27、为自主手术机器人领域的创新者、决策者提供一份醒目的行业地图,助其准确把握行业发展的脉搏,驾驭变革的浪潮。2 本报告旨在通过系统梳理国内外自主手术机器人的发展脉络,深入解析其关键技术、产业格局、临床应用、研究进展等多个维度,以期为我国自主手术机器人技术的创新和产业化提供决策参考。报告首先阐述自主手术机器人的内涵、分类和技术特征;而后重点剖析国内外代表性的研究成果,提炼其技术创新点;并进一步分析我国在该领域的发展现状、技术瓶颈、发展趋势,以及面临的机遇与挑战;最后,对标国际先进水平,提出推动我国自主手术机器人蓬勃发展的对策建议。一、一、自主手术机器人绪论自主手术机器人绪论 (一)定义(一)定义 作28、为一种新型的手术机器人类型,“自主手术机器人”目前这一术语尚且没有明确的定义。这个术语中包括三个部分:自主、手术和机器人。其中“手术”和“机器人”是相对比较容易理解和大家熟知的。相对来讲,“自主”的概念比较模糊,尤其是需要和经常用到的“自动”的概念作对比。为了方便理解,我们以“自主系统”和“自动系统”两个概念说明“自主”和“自动”的区别与联系。“自主系统”的定义:“自主系统通常指具有一定程度的自主决策和执行任务的能力。这可能包括对环境的感知、分析信息、做出决策并执行相应的任务。自主系统的能力取决于其设计和编程,以及其对环境和任务的适应性。在人工智能领域,自主系统可能涉及到机器学习、深度学习等技29、术,使系统能够从经验中学习和适应新的情境。”“自动系统”3 的定义:“自动系统通常指能够执行预定任务或操作而无需人工干预的系统。这可能包括简单的机械设备或更复杂的计算机系统。自动系统执行任务的程度可能取决于其编程和设计,但它通常缺乏对环境和任务的灵活适应性。自动系统不一定具有自主决策的能力,它们可能是基于预定规则或程序进行操作的。”通过上述的对比容易发现,“自主系统”相对“自动系统”最“自主系统”相对“自动系统”最大的不同是具备了环境感知和自主决策的能力大的不同是具备了环境感知和自主决策的能力,而不仅仅是单一任务的简单重复的执行。因此基于对手术机器人和自主系统的理解,这里尝试给出一个概括性的定30、义:“自主手术机器人是一种具备一定程度自主决策和执行手术任务的机械系统。这种机器人通常集成了先进的视觉感知、运动控制等人工智能技术,以在手术过程中进行环境感知、信息处理和任务执行。自主手术机器人的设计可能旨在提高手术的精确性、安全性和效果,减少对医生的直接手动操作的依赖。”类比人类,自主手术机器人需要具备:(1)感知环境的感知系统,类似的人的视觉,触觉等;(2)分析获取的信息并给决策的决策系统,类似人的大脑;(3)根据决策进行动作的执行系统,类似人的手。综上,自主手术机器人需要有自己的“眼”“脑”“手”,即感知系统、决策系统和执行系统。(二)主要组成部分(二)主要组成部分 4 根据上一节的分析31、可知,一个具备自主性的手术机器人系统主要感知系统、决策系统和执行系统三大部分组成,并且各部分之间存在着如图 1-1所示的信息传递关系。图 1-1 自主手术机器人系统主要组成部分 其中,决策系统就是自主手术机器人的“大脑”,其主要作用是根据所获取的信息规划机器人下一步的操作动作,同时需要对一些紧急的情况进行处理,比如重新规划动作,等待外科医生确认授权等;执行系统就是自主手术机器人的“手”,根据决策系统的规划动作对应的指令执行动作,同时将手术过程中执行系统获取的力和位姿信息反馈给决策系统;感知系统主要是手术机器人系统的“眼睛”,主要是指用于获取手术环境的相机,或是一些为了获取手术视野部分目标位姿变32、化使用的传感器,同时也可以是进行手术实时引导的医学影像等。自主手术机器人系统的作用对象就是病人,环境是指手术操作的主要目标组织和周边的环境,比如心跳、呼吸 5 等的影响。图 1-1中的数字代表着不同部分之间信息的传递,其中 1-3 是从决策系统到手术环境的正向信息传递,4-8 表示从手术环境到决策系统传递的反馈信息,9-10 表示在自主手术机器人遇到不能解决的问题时术式由自主手术转换成遥操作手术术式的切换信息,带撇的数字表示术式变换后外科医生和手术机器人的执行系统和感知系统之间的信息传递。自主手术机器人在得到外科医生的确认和授权后会进入手术任务自主进行的阶段。该阶段将产生如下的信息传递:信息 33、1决策系统根据获取的信息进行动作规划,并将规划路径对应的指令信息传递给执行系统。信息 2执行系统的动作会直接作用于环境,比如在手术中执行系统对组织进行缝合动作。信息 3有时为了获取全部的或者适应动态变化的手术视野,决策系统会根据需要向感知系统发送指令从而调整感知系统的位姿等信息。信息 4执行系统对环境组织进行操作的同时,组织会对执行系统产生力的作用,使得执行系统发生形变等反作用。信息 5执行系统对目标组织进行操作的同时,组织对执行系统的力和位姿的影响通过传感技术反馈给决策系统从而调整规划实现执行系统更加精确的运动控制。信息 6 和 7感知系统通过相机或者其他感知技术获取手术视野中目标组织和执行34、系统的位姿等信息。6 信息 8感知系统获取的信息实时或者执行系统每次执后传递给决策系统。相对自主性等级4 级和5 级的手术机器人系统,现阶段的自主手术机器人系统的目的是更好的帮助医生分担简单重复、负担重的手术子任务,而并不是去取代医生。因此,具有3级自主化的自主手术机器人系统是当下的研究和实现的目标2。也就是,在获取医生的授权后可以自主进行手术子任务,但是医生可以根据手术机器人的执行情况随时将自主手术术式变成遥操作的手术术式。这样可以保证手术机器人系统在遇到解决不了的问题时手术仍然可以顺利进行。当自主手术机器人系统在自主进行手术的过程中遇到不能解决的或者突发的情况,外科医生会拿回手术的主导权通35、过遥操作的方式继续进行手术(信息 10)。此时,外科医生直接通过交互界面获取感知系统的信息(8)和执行系统反馈的信息(5),同时,医生会根据需要调整感知系统的位姿(3)和执行系统的执行动作(1)。(三)自主化等级划分(三)自主化等级划分 与汽车自动驾驶领域一样,自主手术机器人也需要采用等级划分的方式来描述手术机器人的自主化的程度。目前,对手术机器人从完全主从式控制到完全的自主手术的不同自主性程度的分类的研究有很多3-5。其中,匈牙利 buda 大学的 Haidegger3对每个自主性级别的定义进行了基于所执行任务的类型或数量的经验性评价,并通过具体的指标对连续的自主性等级进行了恰当的描述和解释36、。该 7 分类方法遵循 ISO/IEC1的标准,根据手术机器人系统中人类与机器人在规划生成、规划执行、规划监测和规划选择规划生成、规划执行、规划监测和规划选择四个方面发挥的作用确定机器人自主性的等级。因此,本文将采用该种分类方法,具体的分类如图 1-2所示。图 1-2 自主手术机器人等级划分3 具体的自主性等级描述如下3:0 级机器人没有自主性:机器人系统的所有的动作,规划生成、规划执行、规划监测和规划选择都是医生完成,可以理解为没有机器人辅助的手术形式。1 级机器人辅助:手术机器人只执行特定的、低水平的功能,例如遥操作机器人系统、震颤过滤等。2 级任务自主性:系统可以自主地完成某些任务或子任37、务,例如图像引导的骨钻孔,伤口闭合等。国际标准化组织(ISO)和国际电工委员会(IEC)技术工作的重要文件。8 3 级有监督的自主性:系统可以自主地完成大部分的手术过程,同时做出低层次的认知决定。所有的行动都在人类的监督下进行。4 级高水平的自主性:机器人系统根据人类批准的手术计划执行完整的手术操作,而人类只可以紧急停止机器人系统。即使是在人类未能对干预的请求作出适当的回应,机器人也能完成任务。5 级完全自主:机器人系统可以处理所有环境变化和不利条件。该系统在即使是技术最好的人类失败的情况下也能取得成功,因此将不再需要人类任何形式的参与。实际上,不论是从技术的角度还是制度伦理的角度来看,5 级38、甚至是 4 级的自主性手术机器人还处于理想阶段。相反,如果可以使手术机器人系统达到 3 级自主性程度,并且同时赋予外科医生随时通过主从式控制的方式拿回手术决策权的能力,这样的自主性手术机器人系统就是一种具备一定自主性的辅助机器人。外科医生会根据手术进展情况决定是否将决策权交给机器人,并且医生有随时终止机器人自主手术进程的能力。因此,对一台手术来讲,主要决策者和责任人还是外科医生,这样就不会与现有的制度伦理相违背,从而在使用自主机器人提高手术质量和稳定性的同时,降低医生的疲劳问题。二、二、自主手术机器人研究现状自主手术机器人研究现状 目前,在手术机器人领域已有的自主手术机器人系统基本属于 3级自39、主性程度。其目标手术场景包括伤口缝合、肠道吻合等。总体 9 来看,国外在自主手术机器人领域的发展是领先于国内该领域的发展。下面将通过国外最具代表性的肠道自主吻合手术机器人的发展历程来剖析自主手术机器人领域的关键技术和发展瓶颈,同时也将通过几个国内自主手术机器人的例子说明国内在该领域的发展情况。(一)国外研究现状(一)国外研究现状 国外在手术机器人领域,比如最具代表性的腹腔镜达芬奇手术机器人,在全球范围内仍然处于领先地位。在自主手术机器人的探索中亦是如此。目前,国外的自主手术机器人的典型代表-智能组织吻合手术机器人,已发展至动物实验阶段。该智能组织吻合手术机器人主要应用于软组织吻合的手术场景,具40、备3级自主化的程度。该机器人也具备进一步提升自主化程度的条件。(1 1)STAR 系统研究系统研究 所谓的 STAR 系统(Smart Tissue Anastomosis Robot)最早由美国国家儿童医学中心谢赫-扎耶德小儿外科创新研究所的 Leonard 等人34于 2014 年提出。当时,STAR 只是一个智能组织吻合机器人的概念,尚未能够执行自主的组织吻合手术。然而,随着近年来相关技术的不断进步,STAR 系统逐渐得到完善。本文将通过回顾其发展历程,探讨自主手术机器人技术的关键进展。2022 年,美国北卡罗来纳大学威明顿分校的 Saeidi 等人12在机器 人 领 域 顶 级 期 刊41、 Science Robotics 上 发 表 了 一 篇 题 为“Autonomous robotic laparoscopic surgery for intestinal anastomosis”10 的研究论文。在这篇文章中,他们将提出的机器人系统命名为 STAR(Smart Tissue Anastomosis Robot)。该论文的发表点燃了科研界对手术自主化发展的热情,并推动了自主手术机器人系统的发展,具有里程碑式的意义。STAR 系统的相对完整的雏形于 2016 年由美国谢赫-扎耶德小儿外科创新研究所的 Shademan 等人9提出,并将研究成果发表在Science Trans42、lational Medicine上。该论文通过利用新型全光学3D和近红外荧光成像(NIRF,Near-Infrared Fluorescent Imaging)系统以及自主缝合算法,实现了在动态手术环境中对目标组织的跟踪,并自主完成复杂的手术任务。图 2-1 肠道吻合术手术机器人系统8,9 2016 年,Shademan 等人9设计了一套名为 STAR 的自主肠道吻合手术机器人系统,其系统搭建和肠道吻合的步骤如图 2-1所示。该系统集成了两种成像方式:一种是光场相机,用于手术场景的表面三维重建10;另一种是近红外荧光成像11,通过在肠道特定位置注射荧光剂来确定肠道的位置。两种图像融合后,可以43、获得肠道在空间中的位置以及缝合的轨迹信息。11 该系统所使用的缝合工具如图 2-1 b)所示,是一种基于圆弧形状的 Endo 360自动缝合工具8,该工具极大地简化了双臂缝合的操作难度。图 2-1 c)-h)展示了肠道吻合的具体步骤,其中使用牵引线固定肠道的位置,以降低软组织操作的不确定性,从而提高缝合的准确性。尽管该研究进行了离体肠道的吻合实验和动物实验,但每一步缝合的执行都需要医生的确认和授权,同时手术前也需医生注射荧光剂,因此该系统的自主性程度被评为 2级。图 2-2升级的肠道吻合手术机器人系统12 基于上述成果,Saeidi 等人12对 STAR手术机器人系统进行了进一步改进和升级,升44、级后的系统如图 2-2所示。在运动空间和视觉受到限制的条件下,文章展示了机器人在非结构化、动态环境中完成腹腔镜自主软组织肠道吻合手术的能力。研究开发了先进的成像系统和机器学习技术,并设计了实时控制策略,测试了系统在跟踪组织形变和位置、执行复杂手术规划、与人类交互以及自适应执行手术计划等方面的能力。首先,该研究对成像系统进行了小型化设计,以便采用微创术式进行手术13。同时,采用荧光剂注射的方法在一定程度上降低了 12 机器人系统的自主性,因此引入了基于级联 U-net 网络的标记点检测方法。此外,系统还增加了对手术过程中呼吸等运动影响的考虑,采用基于卷积神经网络的方法实时检测标记点的运动规律和位45、置,从而提高缝合动作的精度。与遥操作机器人辅助手术和传统腹腔镜手术方式相比,该自主系统在离体组织实验和动物实验中表现出更优异的缝合指标,例如缝合线间距等。图 2-3可辅助拉线的自主缝合机器人系统14 该 STAR 系统具有较高的自主性程度,可以定级为 3 级,但仍然存在一些问题。比如,每次缝合结束时需要将多余的线拉到组织的缝合针一侧,通常因为刚开始缝合的时候缝合线较长,而该系统只有一个缝合工具,如果一直拉线整个缝合工具就会退出到腹腔外面,显然这样是不可行的。因此,在每次缝合结束都需要医生辅助拉线到一定的位置方便机器人进行下一步的缝合动作(图 2-3e)。这实际上很大程度削弱了该系统的自主程度。46、为了解决该问题,该团队的Leonard 等人14另外增加了一个携带有腹腔镜抓钳的机械臂用 13 于辅助缝合拉线,从而替代上述医生的辅助拉线,进一步提高系统的自主性程度,如图 2-3所示。该 STAR系统具有较高的自主性,可以定为 3级。但该系统仍存在一些问题。例如,每次穿针后,需要将缝合线拉紧。由于缝合线较长,单纯依靠缝合工具拉线,效率低并且影响缝合工具的位置精度。因此,每次穿针后都需要医生将缝合线拉紧到合适位置,以便机器人进行下一步缝合操作(图 2-3e)。这在很大程度上削弱了系统的自主性。为了解决这一问题,Leonard等人14引入了一个带有腹腔镜抓钳的机械臂来执行拉线动作,从而取代医生的47、辅助操作,进一步提高了系统的自主性,如图 2-3所示。上述工作呈现的过程中,使用到的成像系统是实现手术机器人感知的关键部分。该团队在该方面的研究也有深远的技术积累。图 2-4 STAR机器人系统(a),近红外荧光成像系统(b),近红外荧光成像系统硬件组成(c),近红外荧光成像系统 LED环形灯(d)21 14 机器人进行自动化手术需要具备强大的视觉定位能力。然而,手术光线不足,器官组织的相似性,和手术视野易受到血液或组织遮挡的影响都给视觉定位带来挑战。美国国家儿童医学中心谢赫-扎耶德小儿外科创新研究所的 Shademan 等人21研究了近红外(Near-infrared,NIR)荧光标记成像的48、可行性(如图 2-4 所示)。由于近红外光谱在穿透深层组织方面具有很好的性能,因此研究人员选用了一种生物兼容的近红外荧光染料吲哚青绿(ICG)。研究结果表明,近红外标记在人工组织和尸体组织上都具有良好的可视性。即使标记位置被3毫米厚的组织遮挡,系统仍能准确追踪到标记位置,误差小于1毫米。该研究证明了近红外标记在追踪方面的可行性和精度,为 STAR系统手术自主化的感知部分奠定了基础。图 2-5 STAR系统(a),Endo360环形针(b),近红外荧光成像系统(c)22 为将近红外荧光标记和追踪的技术应用到 STAR 机器人系统中,下一步需要确定近红外荧光标记点在整个手术视野中的位置,为STAR49、 系统的自主缝合做进一步的准备。同样来自美国国家儿童医学中心谢赫-扎耶德小儿外科创新研究所的 Leonard 等人22通过将荧光 15 标记点叠加到RGB图像中,表征标记点在RGB图像全局中的位置,如图 2-5 所示。结果表明,STAR 能够在平面模型上进行定位目标和缝合,平均精确度为 0.5 mm,标准偏差为 0.2 mm。该研究解决了手术视野中目标点在二维平面上精确定位的问题。图 2-6 STAR系统(a),Endo360环形针(b),缝合工具的工作流程(c)23 进一步,该研究团队的 Leonard等人23提出了一种环形缝合工具,并对 STAR 系统进行了平面模型上的初步缝合实验。该缝合50、工具是根据 Endo360 自主缝合器设计而来,该工具与定制的电机平台和 STAR 监督控制架构相连,使机器人系统能够自主跟踪并缝合切口,如图 2-6 所示。该研究在平面模型上进行了实验验证。结果表明,STAR 系统比使用最先进手术机器人系统的外科医生更准确、更一致,比使用手动 Endo360 的外科医生快四倍,比使用手动腹腔镜工具的外科医生快九倍。该工作提出了 STAR 机器人系统执行部分的设计并对整个系统的手术自主化进行了平面模型上的可行性验证,为后续工作做好了充分的准备工作。16 在上述工作中,视觉系统只能对平面模型的缝合伤口进行识别和跟踪,显然这在实际的手术场景中是不能使用的,因此该团51、队的研究人员进一步对视觉追踪系统进行了研究。来自美国国家儿童医学中心谢赫-扎耶德小儿外科创新研究所的 Decker 等人24对光场相机进行研究,如图 2-7所示,并对临床环境中的相机集成和性能进行了严格评估。该工作讨论了光场相机的校准和设置,评估了临床背景下光场相机的成像技术。实验结果表明,光场相机在深度信息获取上的平均精度为 0.90 mm。该研究工作提供了一种深度信息获取的可行方案。视觉定视觉定位系统中的三维信息的精确获取是位系统中的三维信息的精确获取是 STAR 机器人系机器人系统手术自主化又一个关键技术。统手术自主化又一个关键技术。图 2-7 光场相机24 2017 年,来自同一研究机52、构的 Decker 等人25融合了光场相机和近红外相机技术,开发了一套三维信息跟踪系统,实现了对工具和目标组织的三维跟踪。同时也克服了非结构化、动态手术中血液和组织遮挡的问题。如图 2-8所示,该研究介绍了跟踪系统设计,并对 17 该三维跟踪系统和标准光学跟踪方法进行了比较。在 1 mm/s 的速度下,该三维跟踪系统的跟踪精度为 1.61 mm,当标记点被血液和组织覆盖时,跟踪精度仅下降到 1.71 mm。这预示着三维跟踪系统的成功研制。图 2-8 视觉系统样包括近红外相机及光源和光场相机(a),近红外三维系统注册(b)和追踪方法(c)25(2 2)STAR 系统其他感知技术探索系统其他感知技53、术探索 手术场景的三维信息感知是手术机器人自主化一个很重要的技术,直白讲就是机器人需要知道目标组织位置点的实时空间信息,机器人精确的到达位置并进行自主的手术操作。三维信息感知的关键是手术视野的深度信息的获取,现有的深度信息获取方法包括:立体视觉(Stereoscopy)、飞行时间(Time-of-flight)、结 构 光(Structured illumination)、和 全 光 成 像(Plenoptic imaging)等方法。上述 STAR 系统就是使用的全光成像的技术。STAR 系统研究团队也对其他的三维信息获取技术进行了尝试。18 2018年,来自约翰霍普金斯大学电子与计算机工程54、系的 Hanh等人26提出了一种基于内窥镜的结构光方法进行生物组织三维重建的成像系统。他们为三维组织重建提供了一种具有独特的梯度灰度编码模式,通过从低频到高频网格模式序列的相位计算来解决物体的不连续性问题,从而最大限度地降低彩色编码照明的成本,系统组成如图 2-9所示。该系统能够在吻合手术过程中对猪肠进行三维重建(三维深度信息感知)。实验结果显示景深为 20 mm 时精度为 0.25 mm。图 2-9 三维视觉系统装置(a),三维内窥镜光学示意图(b)26 2019 年,来自美国马里兰大学机械工程系的 Saeidi 等人27提出了一种使用条纹投影轮廓法的结构光三维重建技术,系统组成如图2-1055、 所示。使用该技术研究人员通过实验测试了所开发系统的准确性和一致性,并将其与外科医生的手动缝合进行了比较。在缝合模型上的测试结果表明,与人工方法相比,STAR 的缝合间距一致性提高了 2.9 倍。19 图 2-10 三维视觉系统装置(a),三维内窥镜光学示意图(b)27 2023 年,来自约翰霍普金斯大学机械工程系的 Kam 等人28提出了一种基于 DeepLabCut 29的机器人阴道袖带闭合术中自主无标记软组织跟踪的技术。DeepLabCut 是一种深度卷积网络,它结合了 DeeperCut30的深度残差神经网络(ResNet)31和用于特征识别的去卷积层。组织标记点是通过找到网络输出的相56、应概率分数图29的峰值来预测的。该工作的系统组成如图 2-11 所示。通过 STAR 系统对模型组织进行了端对端阴道袖带缝合,并与经验丰富的外科医生通过传统腹腔镜和机器人辅助方法进行的缝合结果进行了比较。比较结果表明,通过使用建议的规划方案,STAR 的准确性和一致性优于传统的腹腔镜和机器人辅助方法,从而实现了更高的自主缝合成功率。20 图 2-11 STAR系统(a),基于模型的缝合规划(b),无标记组织跟踪器可以实时跟踪自主缝合的标记点(c)28(3 3)STAR 系统发展历程系统发展历程 图 2-12 STAR系统发展历程 在上述两个章节中,以 STAR 自主缝合机器人系统的发展为主线进57、行了文献调研。其中,提到的每个研究工作都存在着一定的逻 21 辑关系。为了更加清晰地展示这个逻辑关系,我们整理了 STAR 系统发展图,如图 2-12所示。对自主手术机器人来讲,主要包括三个部分:感知系统、决策系统、和执行系统。值得强调的是,对一个智能系统来讲,所有的决策都是在感知到信息的基础上做出的,目前准确的感知是最关键的。并且,对现在所能实现的低层次的自主化来讲,尤其是对单一任务的自主化来讲,比如缝合操作自主化,决策相对比较简单。因此目前的决策系统取决于机器人执行的手术类型和感知系统获取的信息,具有灵活性和不确定性,因此这里主要是从感知系统和执行系统两个方面展示STAR系统的发展历程。在58、STAR系统中,执行系统是基于商用环形缝合器进行的电动化设计,在整个发展历程中变化较小。因此,感知系统及其发展历程是最主要的部分,也是自主感知系统及其发展历程是最主要的部分,也是自主手术机器人系统核心竞争力的体现。手术机器人系统核心竞争力的体现。(4 4)其他自主手术机器人其他自主手术机器人 上述 STAR 系统的执行系统是在商用缝合工具的基础上进行改进的,并且该商用缝合工具是环形的,只需要一个动作就能缝合一针。但该工具的缺点是尺寸比较大,并且工具只能将缝合组织环绕后才能执行缝合的动作,不适用于平面组织的缝合。因此,传统的双臂协作缝合工具具有更好的适用范围。其他的研究团队对双臂协作的缝合自主化59、进行了研究,比如:22 图 2-13 双臂自主伤口缝合机器人系统6 Pedram 等人6提出一种基于线驱动的 Raven-IV 机器人平台的双臂自主伤口缝合机器人系统,如图 2-13 所示。该工作设计了一种缝合针的夹持装置,可以保证缝合针在使用的过程中不发生滑动,确保缝合的精度;同时,夹持装置上设有位置固定的色块方便通过立体视觉系统对缝合针中心位置和方向进行确定。仿体上伤口的相关参数是通过轮廓检测算法和立体视觉系统识别模型上提前标记的红点进行确定。最后根据这些参数对缝合场景进行参数化,通过非线性优化的方法进行缝合路径规划,并且方便缝合效果的定量评估7。该系统达到了 2.07 mm 的位置精度和60、 4.29 的方向精度。从自主性等级上看该系统达到了 2 级或者3 级,但是误差较大,并同样存在模型场景简单的问题。(二)国内研究现状(二)国内研究现状 国内关于自主手术机器人的研究比较少,但是也存在一些比较典型的包括了感知系统,决策系统和执行系统的研究工作。这些工 23 作逻辑和结构比较简单,但是便于理解自主手术机器人系统主要的三个组成部分。这些工作选择的手术场景相对单一,周边环境具备很好的一致性和确定性,极大的简化了自主手术机器人面对的手术任务。因此自主化程度可以做到比较好,能达到 3级自主甚至是 4级自主化。下面将列举两个代表性工作。图 2-14 手术过程中组织表面血液移除手术机器人系统61、18 Su 等人18设计了一套应用于手术过程中组织表面血液移除的自主型手术机器人系统,该系统如图 2-14 所示。该系统的移除血液的装置是由吸管、气管,气泵和容器组成,通过吸管前段与组织之间形成负压将血液吸引到容器中。该血液移除机器人的关键是对组织上的血液轮廓进行检测,该系统采用了面部区域卷积神经网络19(Mask R-CNN)。获取血液轮廓后,通过规划器进行血液移除的路径规划,同时考虑有多处血液区域时的血液移除的逻辑等。该系统在猪皮组织上进行了血液移除的实验,吸管末端的定位精度在 1.37 mm 左右18。理论上讲,该系统可以到达很高的自主程度(4 级),但同样只是实验模型阶段的验证,缺少实62、际手术环境的验证。24 图 2-15 自主钉皮拆钉机器人系统20 Wang 等人20提出了一套自主钉皮伤口闭合的机器人系统,同时该系统也集成了拆钉器的功能,系统图如图 2-15 所示。该系统有两个双目相机,其中脱离系统单独固定的双目相机用于整个系统的闭环控制,实现机械臂末端执行器精确定位的功能;另外一个固定于机械臂末端的双目相机用于伤口检测和钉检测。该系统的控制器或者规划器会根据检测的结果进行钉皮或者拆钉的逻辑和路径规划,最后由钉皮模块和拆钉模块执行动作完成任务。实验结果表明该系统具有很高的精度(位置精度 0.21 mm,方向精度 0.65)。理论上该系统达到了 3 级自主性程度,但是该工作只63、是基于简单模型进行了实验验证,缺少临床的验证。(三)国内外自主手术机器人研究团队(三)国内外自主手术机器人研究团队 25 本报告主要是以智能组织吻合机器人(STAR)为主线,阐述当前自主手术机器人的发展现状和发展历程。因此,相关的研究团队,主要来自国外。国内也有自主手术机器人相关的研究团队。这里对自主手术机器人研究团队整理在表 3-1 中。值得注意的是,国外团队都是与智能组织吻合机器人 STAR 相关的,他们在 STAR 机器人系统的发展过程中都做出了重要贡献,尽管STAR只有 3级的自主化程度,但是该系统进行了多例动物实验验证,这间接证明了 STAR 系统的临床应用价值。国内团队的自主手术机64、器人系统也能达到 3 级或者更高的(4 级)自主化程度,但是这些系统只是在理想的模型上进行了简单验证,不能体现其临床应用的可行性。表 3-1 自主手术机器人相关研究团队 国别 团队团队 单位单位 主要研究方向主要研究方向 代表性代表性自主机自主机器人系器人系统统 自主自主机器机器人等人等级级 国外团队 Axel Krieger 美国约翰霍普金斯大学 Johns Hopkins University 医疗设备;机器人 Medical Devices Robotics STAR智能组织吻合机器人 3级 Peter C.W.Kim Pediatric Surgeon 美国布朗大学 Brown Uni65、versity 智能手术工具 Smarter Surgical Tools Azad Shademan 直觉外科公司 Intuitive Surgical Inc.手术机器人;计算机视觉;视觉控制及伺服 Surgical Robotics;Computer Vision;26 Visual Control;Visual Servoing Simon Leonard 美国约翰霍普金斯大学 Johns Hopkins University 机器人;计算机视觉 Robotics;Computer Vision 国内团队 王君臣 北京航空航天大学 Beihang University 医学图像计算;计66、算机视觉;手术导航;医用机器人技术 Medical Imaging Analysis;Computer Vision;Surgical Navigation;Medical Robotics 自主钉皮拆钉机器人系统 3级 苏柏泉 北京邮电大学 Beijing University of Posts and Telecommunications 医疗机器人 Medical Robots 组织表面血液移除手术机器人系统 4级 数据来源:作者整理数据来源:作者整理 三、三、其他自主医疗机器人研究现状其他自主医疗机器人研究现状 手术机器人在整个医疗机器人领域内是比较复杂的一种类型。其主要原因是,手术机67、器人所面临的手术环境,比如软组织操作,液体环境等,是非常复杂和多变的。而其他的医疗机器人,比如自主超声机器人和自主放射治疗机器人,所面对的环境就相对稳定和单一,并且也不会对病人产生非常直接的伤害。因此,目前手术自主化的自主化程度是比较低的(3 级),而自主超声机器人和自主放射治疗机器人的自主程度是比较高的(4 级)。下面将对两种自主机器人进行研究现状概述。27 (一)自主超声(一)自主超声机器人机器人 图 3-1 超声实时引导的冷冻消融手术机器人系统15 Muradore 等人15在欧洲 FR7 项目资助下设计一套智能外科手术机器人,命名为I-SUR。该项目的主要目标是证明自主手术机器人系统能68、够有效地执行简单的手术任务,并且不需要外科医生过多的干预。该团队设计的是超声实时引导的自主冷冻消融的手术机器人系统,系统搭建如图 3-1所示。该系统由两部分组成,一是携带超声探头的 UR5 机械臂(图 3-1 左侧部分),主要用于冷冻针穿刺过程中提供实时的超声影像;二是 I-SUR 机器人系统(图 3-1右侧部分),该系统采用宏观和微观结构设计方法16,包括两个相互解耦合的部分,宏观部分是采用三角洲机器人设计用于冷冻针的粗定位,微观部分是采用连续体结构设计用于冷冻针的精确定位。该系统首先进行注册,然后考虑机器人避障和重要组织器官的避障问题进行冷冻 28 针的穿刺规划,最后系统根据 I-SUR 69、上的力传感器和实时的超声图像信息自动检测冷冻针的穿刺情况,根据一定的逻辑进行实时调整针或者重新穿刺,如果检测到超出机器人能够处理的情况或者外科医生觉得有必要进行干预的时候,可以随时将自主手术模型转化成遥操作的模式继续进行手术,同时避免中间模式切换存在的冷冻针和主控器相对位姿不匹配的问题17。理论上来讲,该系统达到了已知人体模型结构的理论上来讲,该系统达到了已知人体模型结构的 4 级自主性程级自主性程度,但是该工作只是进行了人体模型实验,真实的在体实验仍然需度,但是该工作只是进行了人体模型实验,真实的在体实验仍然需要进一步验证。要进一步验证。(二)自主放射治疗机器人(二)自主放射治疗机器人 图 70、3-2 CyberKnife M6放射外科机器人(Accuray Inc.USA)32 自主化程度最好的放射外科机器人是 CyberKnife 立体定向放射外科系统(Accuray Inc.USA)。它将图像引导与机器人定位相结合:直线加速器安装在库卡 KR 240 工业机械手上(图 3-2)。CyberKnife 29 的主要用途是照射脑肿瘤和脊柱肿瘤。X 射线照相机用于跟踪病人的空间位移,并对呼吸等引起的任何运动进行补偿。为提高精确度,可在 CT 扫描前几天在肿瘤区域附近植入不透射线的靶标,以便通过 X 射线摄像机跟踪治疗计划。另外还有一个定制开发的软件工具,可在周期性检测到的靶标位置与放71、置在胸部的光学跟踪标记的实时位置之间建立相关模型,以跟踪肿瘤位置。它利用四维 CT(结合CT的扫描 时间)测量呼吸组织的运动变形,并考虑到照射时位移的影响33。CyberKnife 实现了高度自主的实时图像引导放疗操作,一旦治疗计划(由系统设计)获得人类批准,外科医生只需要监督手术进程,必要时急停系统。因此该机器人系统具有4级自主化程度。如果再增加计算机监控模块和自动化病人管理环境,则可归类为 5级自主化。四、四、自主手术机器人关键技术行业调研自主手术机器人关键技术行业调研 自主手术机器人主要包括三个部分:感知部分,决策部分和执行部分。决策部分的主要作用是根据感知部分获取的信息,进行任务决策,72、生成任务执行方案,并将执行方案的指令传递给执行部分进行手术操作。因此,决策部分是取决于感知、执行部分和自主手术机器人的目标手术任务的。所以本部分行业调研将不包括决策部分。下面将对 STAR 系统中的感知部分和执行部分的关键技术进行行业调研。STAR 手术机器人系统的所涉及到的上下游产业链信息如图 4-1所示。30 图 4-1 STAR手术机器人的上下游(一)感知部分行业调研(一)感知部分行业调研 感知部分主要是通过一些比如相机等设备获取手术场景中目标的三维位置信息及动态变化的情况,其中目标的深度信息是最重要的也是比较难获取的。上述的 STAR 机器人系统主要采用了光场相机作为感知部分的设备,因73、此这里将对光场相机进行行业调研。实际上,传统的腹腔镜也可用于深度估计,比如双目内镜深度估计或单目内镜深度估计等方法。该部分内容属于深度估计算法层面的技术,这里便不再做相应的行业调研。光场相机行业调研光场相机行业调研 光场相机是一种能够记录光线方向和强度信息的新型相机,可以在拍摄后对焦点、视角等进行调整,实现单次拍摄多次利用。其核心技术是光场相机采用微透镜阵列、光传感器、计算摄影等关键技术,通过记录光线方向和强度实现光场信息采集。其工作原理如图 4-2所 31 示。光场相机的核心是一个叫做微透镜阵列的装置,它位于传感器和镜头之间。这个阵列由许多微小的透镜组成,每个透镜都能捕捉到不同方向的光线。当74、光线通过镜头进入相机时,会被微透镜阵列分成许多微小的光斑,每个光斑对应着不同方向的光线。在拍摄完成后,通过计算每个光斑的位置和角度,就可以重建出整个场景中的光线分布情况。这样一来,就可以在后期处理中模拟出不同焦距、不同景深的效果,实现一些传统相机无法实现的功能。光场相机在数字影像、安防监控、工业检测、医疗诊断、AR/VR 等领域具有广泛应用前景。图 4-2光场相机工作原理35 市场需求将以市场需求将以 31.3%的复合增长率增长的复合增长率增长 2022 年全球光场相机市场规模达到 3.2 亿美元,预计到 2027 年将达到 12.5 亿美元,年复合增长率为 31.3%。目前光场相机市场参与者75、主要包括Lytro、Raytrix、富士胶片、佳能、尼康等企业。Lytro是光场相机先驱,2018 年被 Google 收购。在国内相关公司比较少,目前做的比较好的是奕目(上海)科技有限公司。32 最早获得光场相机专利的公司是 Lytro。这家公司由斯坦福大学的 Ren Ng 创办,旨在商业化他作为研究生时开发的光场相机。Lytro的光场相机使用微透镜阵列,放置在传统图像传感器前,以感知光的强度、颜色和方向信息,并使用软件将这些数据转化为可显示的2D或 3D图像。Lytro在 2012年推出了全球首款面向消费者市场的光场相机。高分辨率、小型轻量化发展高分辨率、小型轻量化发展 光场相机主要的发展76、趋势有以下几点。高分辨率化:光场相机分辨率不断提升,新一代产品分辨率可达1亿像素以上,成像质量大幅提高。小型轻量化:得益于光学及传感器技术进步,光场相机头越来越小型化,更便于集成应用。视频拍摄能力增强:除静态图像外,光场相机延时摄影、高速摄影等视频拍摄能力不断增强。计算摄影算法优化:通过优化光场数据处理算法,光场相机成像速度加快,景深范围扩大,功能更加丰富。发展挑战及未来前景发展挑战及未来前景 受核心器件及加工工艺限制,光场相机成本较高,价格昂贵,一定程度上限制了其推广应用。另外,光场相机拍摄及后期处理需要一定的专业知识,对使用者技能要求较高。最后,围绕光场相机的硬件配件、软件工具等配套设施仍77、不完善,使用体验有待提升。但随着技术不断成熟,器件成本有望进一步降低,光场相机有望实现规模化应用。同时,随着 5G、人工智能等新技术发展,光场相机与之融合将催生更多创新性应用场景。在高端影像创作、立体 33 显示、体验设计等领域,光场相机独特的光场采集特性将发挥重要作用。总之,光场相机作为一种前沿的成像技术,市场前景广阔。随着相关技术不断发展成熟,有望在多个领域得到革命性的应用,未来发展值得期待。(二)执行部分行业调研(二)执行部分行业调研 执行部分是指自主机器人系统中机器人本体结构及其驱动、控制系统。STAR 系统的执行部分是在商业自动缝合器的基础上进行改进的。本章节首先对自动缝合工具进行行78、业调研。其次,自主化程度处在1级的腹腔镜手术机器人系统是进一步自主化的坚实基础,因此本章节也将对腹腔镜手术机器人系统进行行业调研。(1 1)自动缝合器行业调研)自动缝合器行业调研 STAR系统的执行部分是在现有的 Endo360 的自动缝合器的基础上进行改进的。该工具的稳定可靠性是 STAR 系统成功执行每一步操作的关键。自动缝合器是一种医疗设备,用于自动完成伤口缝合。它通常由机器臂、针线和控制系统组成,能够实现快速、精准的缝合,提高了手术效率和伤口愈合速度,同时减少了感染风险。图 4-3所示的是邦尼医疗科技(常州)有限公司的腹腔镜自动缝合器。34 图 4-3 邦尼医疗科技(常州)有限公司的腹79、腔镜自动缝合器 市场规模大且将以市场规模大且将以 6.81%复合增长率增长复合增长率增长 2023年全球自动缝合器市场规模为 25.3亿美元。预计到 2030 年,该市场将达到 37.4 亿美元,2024 年至 2030 年的预测期间复合年增长率为 6.81%36。该增长的主要因素包括全球手术数量和事故伤害病例数量的增加。例如,根据英国皇家外科学院 2021 年 5 月公布的数据,英国有约495万人等待手术,这将在预测期内推动市场增长。此外,根据世界卫生组织 2021 年 6 月发布的数据,大约有 20 至 5000万人因道路交通事故遭受非致命伤害,其中大多数需要手术治疗,这也将推动市场增长。80、另外,2022 年 1 月,Endo Tools Therapeutics公司开发的内窥镜医用缝合装置 Endomina 获得了美国食品和药物管理局的批准,这可能会进一步推动市场增长。然而,市场增长可能会受到产品可用性降低、熟练专业人员缺乏以及设备成本高等因素的影响。35 北美市场在全球市场中仍占据重要份额北美市场在全球市场中仍占据重要份额 预计北美将在市场中占据重要份额,并且在预测期内也将保持其重要地位。由于对手术设备监管的改善以及人们在面对受伤和慢性疾病问题时接受手术的意识不断增强,预计北美市场将在整个预测期内持续占据主导地位。美国每年有近 3500 万人次住院,因此住院和手术的增加预计将81、推动市场的增长。此外,美国因交通事故导致的伤害数量不断上升,这也导致了外科手术数量的增加,进而增加了缝合器的使用。根据 2022 年 3 月发布的 ASIRT 数据,每年有440 万美国人因受伤严重而需要医疗护理。因此,上述因素预计将在预测期内继续推动北美市场的增长。一次性细分市场预计将在自动缝合设备市场中占据重要份额。随着外科手术数量的不断增加,一次性自动缝合设备在市场中的占比也在不断上升。2021 年 6 月发表在创新杂志上的一篇文章探讨了一次性自动缝合紧固件相对于手动打结缝合线的优势,研究表明使用 COR-KNOT 等一次性自动缝合紧固件能够缩短手术时间,对外科医生极具帮助。预测期内,这82、类一次性设备的使用预计将继续增加,从而推动市场中一次性自动缝合设备细分市场的增长。一些关于自动缝合设备的研究和开发计划正在进行中,例如,2021 年 12 月,新南威尔士大学医疗机器人实验室的研究人员开发出智能缝线,可以加速伤口愈合过程,并在无需人工干预的情况下自动收紧伤口。这些创新有望推动自动缝合设备市场的增长。因此,预计上述因素将推动市场细分的增长。36 国外公司占据主要市场份额国外公司占据主要市场份额 由于全球和区域性运营的公司存在,自动缝合设备市场规模相对较小。如表 4-1所示,竞争格局主要存在于一些拥有市场份额并且知名的公司,其中包括美敦力(Medtronic)、施乐辉公司(Smit83、h Nephew,Inc.)、波士顿科学公司(Boston Scientific Corporation)、Sutrue Limited、B.Braun SE 等等。表 4-1 自动缝合器主要公司 公司公司 国别国别 成立成立 时间时间 上市上市情况情况 2023 营收营收(百万美元)(百万美元)主要产品线主要产品线 美敦力Medtronic 美国 1949年 美股上市 31686 主要产品覆盖心律失常、心衰、血管疾病、心脏瓣膜置换领域 施乐辉Smith Nephew 英国 1856年 伦敦证券交易所上市 5549 骨骼修复、运动损伤修复、伤口护理及耳鼻喉手术等产品 波士顿科学 Boston 84、Scientific Corporation 美国 1979年 纽约股上市 14240 涵盖了心脏介入、电生理、心脏节律管理、神经调节、外周及肿瘤介入等业务 Sutrue Limited 英国 2012年-自主缝合器械 贝朗医疗 B.Braun SE 德国 1839年-8924 其产品和服务包括心胸外科、糖尿病护理、体外血液处理、普通外科手术等 16个类目 英特姆(武汉)中国 2017 未上市-涵盖腔镜手术中通道的建立、分离、37 医疗科技有限公司 切割、缝合、结扎、高频电凝(切)、吻合及手术通道的闭合等 30余种创新产品 邦尼医疗科技(常州)有限公司 中国 2018 未上市-自动缝合器、吻合85、器 数据来源:作者整理数据来源:作者整理 国内在自主缝合器方面的生成厂商较少,代表企业有英特姆(武汉)医疗科技有限公司和邦尼医疗科技(常州)有限公司。相对国外的医疗器械公司,国内的公司相较年轻,尽管在自主缝合器上具有中国自主知识产权,但是跟国外相比,还是不能突破技术壁垒。市场方面,国内公司只能跟抢占些许国内市场。在产品竞争力和市场占有率上仍然大幅落后于国外医疗器械公司。(2 2)腹腔镜)腹腔镜手术机器人行业调研手术机器人行业调研 1 级自主手术机器人的存在是自主手术机器人行业发展的另一个潜在条件。自动缝合器虽然是整个手术机器人系统的重要组成部分,但其尺寸较大,且受限于特定缝合场景的应用。由于自86、动缝合器本身较为刚性,因此无法适用于柔性内窥镜的器械通道,而其尺寸也不能满足使用条件。因此,对于自主手术机器人的发展前景,我们需要关注目前处于1级自主化的手术机器人的进展情况。其中最具代表性的手术机器人就是腹腔镜手术机器人。如表 4-2所示,拥有腹腔镜手术机器人研发能力的企业,也就更有可能在未来政策、法规完善时继续推动手术机器人的自主化进展。38 表 4-2 2020年以来腹腔镜手术机器人公司融资统计 企业企业 产品布局产品布局 最新最新轮次轮次 年份年份 金额金额 投资机构投资机构 微创机器人 腔镜、骨科、血管介入、经皮穿刺、经自然腔道手术机器人 港股已上市 2021-(未查到)北京术锐 腔87、镜手术机器人 C3 轮 2023 数亿元 正心谷等 深圳精锋 腔镜手术机器人 C 轮 2021 超 2亿美元 博裕投资、淡马锡、红杉中国、三正健康没资、LYFE Capital(洲嶺资本)、国策投资、中国国有企业混合所有制改革基金、OrbiMed、晨壹投资、大湾区基金、OctagonCapital、Sage Partners、临港蓝湾资本、未来资产等 佗道医疗 腔镜、骨科、经皮穿刺、经自然腔道手术机器人、影像 B+轮-瑞龙诺赋 腔镜手术机器人 Pre-B+轮 2023 2亿元 纽尔利资本、翼朴资本、礼来亚洲基金、维梧资本、经纬创投、GGV 纪源资本、LRI江远投资 敏捷医疗 腔镜、经自然腔道 88、A轮 2023-夏尔巴投资、元禾原点 唯精医疗 腔镜手术机器人 战略投资 2022 3.6亿元 康基医疗 数据来源:作者整理数据来源:作者整理 腹腔镜手术机器人基本组成腹腔镜手术机器人基本组成 39 腔镜手术机器人是当前医疗领域中一项具有巨大商业潜力的技术,被广泛运用于泌尿外科、妇科、普外科及胸外科等手术领域。以达芬奇为例,这类手术机器人通常由医生控制台、机械臂和影像系统组成,如图 4-4 所示。图 4-4腹腔镜手术机器人系统组成(以达芬奇手术机器人为例)1.医生控制台:它由两个主控制器和脚踏板构成,通过计算系统将医生的动作转化为机械臂的动作。重要的技术参数包括主控制器的力反馈、机械臂与控制器89、之间的动作延迟,以及为防止误操作而采取的安全性措施。2.影像系统:这包括三维内窥镜、摄像机、处理器和显示系统等设备。三维内窥镜置于机械臂的持镜臂上,而显示屏则位于医生控制台上。关键技术要素包括成像清晰度、定位系统和术中荧光显影。医生团队可通过影像系统实时监视手术进程,以提升手术安全性。40 3.机械臂:这是手术机器人的核心组成部分,由4个固定于可移动基座上的机械臂组成,通常包括持镜臂、左右手和能量器械臂。通过不同的手术器械,如抓持钳(Endowrist 系列)、吻合器(Sureform 系列)和能量平台等,几乎可以完成所有腔镜手术操作。腹腔镜手术机器人分类:多孔和单孔腹腔镜手术机器人分类:多孔90、和单孔 多孔机器人通过多个切口进行手术治疗,操作方便,视野广阔。相比之下,单孔手术机器人采用一条高度集成的机械臂,上面搭载了四个机械手,模拟了多孔机器人的四肢设计。单孔机器人只需一个切口,因此创伤较小、康复速度更快。在高度集中的狭小空间内进行手术时,单孔机器人具有更大的优势。多孔腔镜手术机器人的构型相对统一,通常由体外机械臂和长杆状手术工具组成。手术工具末端通过增加腕关节以提高操作的灵活性,常见的腕关节机构包括滑轮钢丝机构、连杆驱动机构、连续体机构和窄带变形机构等,它们负责实现腕关节的运动。体外机械臂能够满足远心运动约束,保证直杆手术工具始终通过一个切口进入病患的身体,从而避免对病患腹腔壁造成91、拉扯。实现远心运动的机构包括平行四边形机构、同步带等效平行四边形机构、平行四边形和并联机构、球面连杆机构、纯并联机构和空间导轨机构等。机器人系统通常配备 3D 腹腔镜,同时通过选配体感操作和力反馈系统可提高操作的准确度。相较之下,单孔腔镜手术机器人的研制更为困难,其中腔镜直径是设计的关键因素。通过单个切口,需放置一 41 个视觉模块和 2至 3支手术臂,视觉模块必须集成照明功能,而手术臂则需要具备足够的强度和工作空间。腹腔镜手术机器人企业腹腔镜手术机器人企业 在腔镜手术机器人领域,达芬奇目前基本上处于全球的垄断地位。近年来,随着国内企业的大力投入,国产腔镜机器人在技术和产品形态上开始不断创新,92、并实现了多样化。相较于达芬奇,国产腔镜手术机器人在机械臂数量、单孔多孔、力反馈和 3D 显示等方面存在差异。例如,达芬奇的四代机械臂通常包含 4 臂(1 镜 3 操作臂),而国产机器人则可能拥有不同的配置,如 3 臂(1 镜 2 操作臂)、单臂(含 1 镜 3 操作臂)或者 4 个独立的手术执行系统(1 镜3 操作臂),展现出多样化的产品形态。表 4-3 列举介绍了国内外腹腔镜手术机器人系统及特点。表 4-3 国内外腹腔镜手术机器人特点介绍 企业企业 机械臂数量 设计方设计方式式 自由自由度度 力反力反馈馈 3D 多孔机器人 单孔机器人 达芬奇机器人 Xi(四代)4臂(1 镜 3操作臂)一体式93、设计 7 无 封闭 3D显示 有 有 微创机器人 4臂(1 镜 3操作臂)一体式设计 7 无 封闭 3D显示 有 布局中 苏州康多机器人 3臂(1 镜 2操作臂)一体式设计-开放 3D显示 有 有 山东威高妙手机器人 3臂(1 镜 2操作臂)一体式设计-无 开放 3D显示 有 有 深圳精锋 4臂(1 镜 3操作臂)一体式设计 7-封闭 3D显示 有 有 42 单臂(内含 1镜 3 操作臂)一体式设计 7-封闭 4D显示 北京术锐 4个独立的手术执行系统(1镜 3 操作臂)单多孔兼容 7 有 封闭 3D显示 可组装成多孔 有 数据来源:作者整理数据来源:作者整理 尽管国产腹腔镜手术机器人近几年发94、展迅速,但是从产品的竞尽管国产腹腔镜手术机器人近几年发展迅速,但是从产品的竞争力和市场占有率上来讲,直觉外科的达芬奇手术机器人仍然占据争力和市场占有率上来讲,直觉外科的达芬奇手术机器人仍然占据主导地位。直觉外科自主导地位。直觉外科自 2000 年前后第一代达芬奇手术机器人问世以年前后第一代达芬奇手术机器人问世以来,就掌握着腹腔镜手术机器人领域绝大多数的知识产权。随来,就掌握着腹腔镜手术机器人领域绝大多数的知识产权。随着知着知识产权逐渐超过保护期,目前全球仍然处于腹腔镜手术机器人研究识产权逐渐超过保护期,目前全球仍然处于腹腔镜手术机器人研究的快速发展期,尤其是中国新兴的医疗公司。相信在国家的支持95、下,的快速发展期,尤其是中国新兴的医疗公司。相信在国家的支持下,我国的医疗机器人可以追赶并达到世界顶尖水平。我国的医疗机器人可以追赶并达到世界顶尖水平。五、五、自主手术机器人行业发展面临的考验及未来展望自主手术机器人行业发展面临的考验及未来展望 自主手术机器人在整个手术机器人领域是比较新颖的方向,同近些年发展迅速的自动驾驶汽车一样都依赖于先进的传感器技术、实时数据处理和复杂的决策算法。它们都需要在复杂和不确定的环境中做出实时决策,以执行精细和关键的任务。相对低层次的单一任务自主化来讲,复杂的手术全流程或者多手术任务的自主化对决策系统的要求更高,这也是未来实现真正自主化的关键所在。另外,两个领域96、的自主化也面临着类似的挑战,如对技术的可靠性和安全性的要求、对法规和伦理的考量,以及对用户或患者接受程度的影响等。43 虽然自主手术机器人和自动驾驶汽车在技术应用领域存在相似之处,但在其应用的环境和需求上存在明显差异。手术室内的环境通常更加受限且精确,而且对机器人的精准性、安全性和可靠性要求更高。因此,自主手术机器人的研发和应用往往需要更高水平的技术、认证和法规标准。尽管自主手术机器人在未来的临床应用中具有巨大的潜力,但它们也面临着重大挑战,如技术成本、医疗法规的限制、患者隐私保护、责任主体等。这些问题也是现在自主手术机器人系统难以拿到资质认证并真正进入临床应用的根本原因。但是,随着技术的不断97、进步和对机器人临床应用的研究,可以预期自主手术机器人将在未来发挥更加重要的作用,改善医疗服务质量并提升患者治疗体验。六、六、专业术语解析专业术语解析 自主手术机器人(自主手术机器人(Autonomous Surgical Robot)自主手术机器人是一种集成了先进的计算机视觉、感知、运动控制和人工智能技术的机器人系统,旨在实现对手术过程中的环境感知、信息处理和任务执行,提高手术的精确性、安全性和效率,减少对医生直接手动操作的依赖。小肠吻合手术(小肠吻合手术(Enteroanastomosis)小肠吻合手术是一种外科手术,用于连接小肠的两段或小肠与其他消化道器官(如胃或大肠)。这种手术通常在需要98、绕过受损或阻塞的肠段、切除病变部分、或在其他疾病如肠梗阻、肿瘤、炎症性肠病(如克罗恩病)情况下进行。吻合方式可以是端端吻合(直 44 接连接两段肠子末端)、侧侧吻合(连接肠子侧面)或端侧吻合(将一段肠末端连接到另一段肠侧面)。手术的目的是恢复消化道的连续性,确保食物和消化液的正常通过。手术可以通过传统的开腹手术或腹腔镜手术(微创手术)进行。智能组织吻合机器人(智能组织吻合机器人(Smart Tissue Anastomosis Robot,STAR)STAR 是由美国北卡罗来纳大学威明顿分校研发的一款自主手术机器人系统,其集成了光学相机、近红外荧光成像等多源感知技术,以及基于深度学习的组织识别99、与跟踪算法,可实现对手术环境的实时感知;并采用基于规则的智能规划算法,对缝合等关键手术步骤实现自主操控。近红外荧光成像(近红外荧光成像(Near-Infrared Fluorescence Imaging,NIRF)近红外荧光成像是一种医学影像技术,通过注射特定的荧光染料,并使用特殊的近红外光源和成像设备,可以在手术过程中实时观察和追踪特定组织或器官的位置和形态,从而为手术机器人的感知和控制提供精准的导航信息。自动缝合器(自动缝合器(Automatic Suturing Device)自动缝合器是一种医疗设备,由医护人员手动操作,用于在手术中进行缝合。它通常由一个手柄或握把组成,操作者通过手柄100、上的按钮或控制器来控制缝合器的动作。自动缝合器通过机械装置将针和线传递到目标组织上,并执行缝合操作。光场相机(光场相机(Light Field Camera)45 光场相机是一种能够同时记录光线方向和强度信息的新型相机,通过采用微透镜阵列、光传感器等关键技术,可以在拍摄后对焦点、视角等进行调整,实现单次拍摄多次利用。这种相机可为手术机器人提供更丰富、更精准的三维环境感知能力。46 参考文献参考文献 1.Saeidi H,Opfermann J D,Kam M,et al.Autonomous robotic laparoscopic surgery for intestinal anastom101、osisJ.Science robotics,2022,7(62):eabj2908.2.Tamburrini G,Ficuciello F,Siciliano B.Autonomy in surgical robots and its meaningful humancontrolJ.Paladyn,Journal of Behavioral Robotics,2018,10(1):30-43.3.Haidegger T.Autonomy for surgical robots:Concepts and paradigmsJ.IEEE Transactions on Medical Robo102、tics and Bionics,2019,1(2):65-76.4.Patel R V,Ferreira A,Agrawal S K.The encyclopedia of medical roboticsM.World Scientific,2019.5.Yang G Z,Cambias J,Cleary K,et al.Medical roboticsregulatory,ethical,and legal considerations for increasing levels of autonomyJ.Science Robotics,2017,2(4):eaam8638.6.Ped103、ram S A,Shin C,Ferguson P W,et al.Autonomous suturing framework and quantification using a cable-driven surgical robotJ.IEEE Transactions on Robotics,2020,37(2):404-417.7.Pedram S A,Ferguson P,Ma J,et al.Autonomous suturing via surgical robot:An algorithm for optimal selection of needle diameter,sha104、pe,and pathC/2017 IEEE International conference on robotics and automation(ICRA).IEEE,2017:2391-2398.8.Leonard S,Wu K L,Kim Y,et al.Smart tissue anastomosis robot(star):A vision-guided robotics system for laparoscopic suturingJ.IEEE Transactions on Biomedical Engineering,2014,61(4):1305-1317.9.Shade105、man A,Decker R S,Opfermann J D,et al.Supervised autonomous robotic soft tissue surgeryJ.Science translational medicine,2016,8(337):337ra64-337ra64.47 10.Decker R,Shademan A,Opfermann J,et al.Performance evaluation and clinical applications of 3d plenoptic camerasC/Next-Generation Robotics II and Mac106、hine Intelligence and Bioinspired Computation:Theory and Applications IX:volume 9494.SPIE,2015:62-72.11.Shademan A,Dumont M F,Leonard S,et al.Feasibility of near-infrared markers for guiding surgical robotsC/Optical Modeling and Performance Predictions VI:volume 8840.SPIE,2013:123-132.12.Saeidi H,Op107、fermann J D,Kam M,et al.Autonomous robotic laparoscopic surgery for intestinal anastomosisJ.Science Robotics,2022,7(62):eabj2908.13.Le H N,Nguyen H,Wang Z,et al.Demonstration of a laparoscopic structured-illumination three-dimensional imaging system for guiding reconstructive bowel anastomosisJ.Jour108、nal of biomedical optics,2018,23(5):056009.14.Leonard S,Opfermann J,Uebele N,et al.Vaginal cuff closure with dual-arm robot and nearinfrared fluorescent suturesJ.IEEE Transactions on Medical Robotics and Bionics,2021,3(3):762-772.15.Muradore R,Fiorini P,Akgun G,et al.Development of a cognitive robot109、ic system for simple surgical tasksJ.International Journal of Advanced Robotic Systems,2015,12(4):37.16.Khatib O.Inertial properties in robotic manipulation:An object-level frameworkJ.The international journal of robotics research,1995,14(1):19-36.17.Franken M,Stramigioli S,Misra S,et al.Bilateral t110、elemanipulation with time delays:A twolayer approach combining passivity and transparencyJ.IEEE transactions on robotics,2011,27(4):741-756.48 18.Su B,Yu S,Li X,et al.Autonomous robot for removing superficial traumatic bloodJ.IEEE Journal of Translational Engineering in Health and Medicine,2021,9:1-111、9.19.He K,Gkioxari G,Doll r P,et al.Mask r-cnnJ/OL.IEEE Transactions on Pattern Analysis and Machine Intelligence,2020,42(2):386-397.20.Wang J,Yue C,Wang G,et al.Task autonomous medical robot for both incision stapling and staples removalJ.IEEE Robotics and Automation Letters,2022,7(2):3279-3285.21.112、Shademan A,Dumont M F,Leonard S,et al.Feasibility of near-infrared markers for guiding surgical robotsC/Optical Modeling and Performance Predictions VI.SPIE,2013,8840:123-132.22.Leonard S,Shademan A,Kim Y,et al.Smart Tissue Anastomosis Robot(STAR):Accuracy evaluation for supervisory suturing using n113、ear-infrared fluorescent markersC/2014 IEEE International Conference on Robotics and Automation(ICRA).IEEE,2014:1889-1894.23.Leonard S,Wu K L,Kim Y,et al.Smart Tissue Anastomosis Robot(STAR):A Vision-Guided Robotics System for Laparoscopic SuturingJ.IEEE Transactions on Biomedical Engineering,2014,6114、1(4):1305-1317.DOI:10.1109/TBME.2014.2302385.24.Decker R,Shademan A,Opfermann J,et al.Performance Evaluation and Clinical Applications of 3D Plenoptic CamerasC/Next-Generation Robotics.2015.25.Decker R S,Shademan A,Opfermann J D,et al.Biocompatible Near-Infrared Three-Dimensional Tracking SystemJ.IE115、EE Transactions on Biomedical Engineering,2017,64(99):549-556.DOI:10.1109/TBME.2017.2656803.26.Le H N D,Nguyen H,Wang Z,et al.Demonstration of a laparoscopic structured-illumination three-dimensional imaging system for guiding 49 reconstructive bowel anastomosisJ.Journal of biomedical optics,2018,23116、(5):056009-056009.27.Saeidi H,Le H N D,Opfermann J D,et al.Autonomous laparoscopic robotic suturing with a novel actuated suturing tool and 3D endoscopeC/2019 International Conference on Robotics and Automation(ICRA).IEEE,2019:1541-1547.28.Kam M,Wei S,Opfermann J D,et al.Autonomous System for Vagina117、l Cuff Closure via Model-Based Planning and Markerless Tracking TechniquesJ.IEEE Robotics and Automation Letters,2023.29.Mathis A,Mamidanna P,Cury K M,et al.DeepLabCut:markerless pose estimation of user-defined body parts with deep learningJ.Nature neuroscience,2018,21(9):1281-1289.30.Insafutdinov E118、,Pishchulin L,Andres B,et al.Deepercut:A deeper,stronger,and faster multi-person pose estimation modelC/Computer VisionECCV 2016:14th European Conference,Amsterdam,The Netherlands,October 11-14,2016,Proceedings,Part VI 14.Springer International Publishing,2016:34-50.31.He K,Zhang X,Ren S,et al.Deep 119、residual learning for image recognitionC/Proceedings of the IEEE conference on computer vision and pattern recognition.2016:770-778.32.Haidegger T.Autonomy for surgical robots:Concepts and paradigmsJ.IEEE Transactions on Medical Robotics and Bionics,2019,1(2):65-76.33.Urschel H C.Treating tumors tha120、t move with respirationM.Berlin:Springer,2007.34.Leonard S,Wu K L,Kim Y,et al.Smart tissue anastomosis robot(STAR):A vision-guided robotics system for laparoscopic suturingJ.IEEE Transactions on Biomedical Engineering,2014,61(4):1305-1317.50 35.Ng R,Levoy M,Br dif M,et al.Light field photography wit121、h a hand-held plenoptic cameraD.Stanford university,2005.36.Automated Suturing Devices-Market Insights,Competitive Landscape,and Market Forecast-2030 51 行业图谱研究项目 一、项目目标一、项目目标和定位和定位 行业图谱是科创金融研究中心基于科技成果转化研究的一项子课题,聚焦于科技成果这一核心要素,从技术链视角切入展开的研究项目。科技成果的转化需要对科技成果有清晰、准确、深刻的认识和理解,能够解析科技成果所包含的学术价值、社会价值、经济价值和人文122、价值等,从而探索科技成果的未来应用场景,以跨越从 0 到 1的商业性转化,通过不断理解优化实现社会产业化,并最终成为科技推动社会发展的历史进程。然而,由于科技天然具有强大的认知壁垒,其先进性、创新性的特点,使得科技成果面临非专业人士看不懂、不敢判断的知识窘境。在成果转化的操作路径中,执行者可分类为三方:成果供给方、成果接收方及连接双方的中介服务机构。除了成果供给方之外,成果接收方和中介服务机构都面临着知识窘境。成果供给方是科技成果的发明人、创造者,对科技成果的学术价值拥有深度认知,但缺乏商业经验和分析社会需求的能力,很难独立实现成果的成功转化;成果接收方是进行成果商业化、产业化的企业,对社会需123、求敏感,善于进行商业价值的探索,但由于不具备深厚的科研基础,不能对科技成果进行技术层面的准确分析和判断,影响执行效率;中介服务机构虽然具备政策分析、法律服务等领域的专业能力,但同样面临看不懂技术的知识窘境,导致出现无效推介、不合理的专利布局、未来的专利纠纷等潜在危机。这一需求的断层也间接性地影响经济学称之为成果转化“死亡之谷”时期的存在。因此,如何准确认识科技成果,正确判断科技成果的技术领先度,理解科技成果所处的行业地位和产业链发展格局,对于提高科技成果转化具有极其重要的价值。本研究以国家十四五规划为导向,重点关注与国家战略需求发展相关的重大创新领域。集中在人工智能、量子信息、集成电路、生命科124、学、生物育种、空天科技、深地深海、现代能源等前沿领域。对基础科研方向进行应用场景的细分,将相关可转化/转化中的科技成果进行技术链条的梳理,通过专业性的技术解构和解析,形成高逻 52 辑性、易理解性的技术图谱;并在此基础上,对科技成果产业化应用现状进行行业研究和分析,以全球视野定位领先梯队中的科创企业和学术团队的技术实力。通过行业图谱的研究,不仅可以清晰定位高新科技企业的技术竞争力,而且能够对我国相关行业现状和未来方向有更准确的认识。既为科技成果转化提供了专业性知识体系支撑,也有助于指导城镇产业化发展布局、推动产业链融通创新、引导创业投资基金对“硬科技”的积极性及鼓励金融支持创新体系的建设。二、125、二、研究方法研究方法 方法学上,行业图谱研究将进行学科领域分级细化,再对技术在应用场景方向上进行详细分级和解构:(一)一级分类(一)一级分类:从应用产业所属学科的角度,以国家十四五规划为导向,重点关注影响国家安全和发展全局的基础核心领域,包括人工智能、量子信息、集成电路、生命科学、生物育种、空天科技、深地深海、现代能源等。(二)二级分类(二)二级分类:对技术对象进行分类。比如生命科学中包括疫苗、新生物材料、细胞治疗、人工智能、基因技术等技术对象,择一进行技术应用方向分析和流程解析。自主手术机器人的关键技术:感知部分、决策部分和执行部分等技术。1、应用方向的技术流程全景 首先,深入探讨自主手术机126、器人技术,以 STAR 机器人系统为例,包括 STAR 机器人如何通过一步一步的发展达到现有的自主化等级。分析自主手术机器人的关注技术组成,发展瓶颈及未来前景。2、应用方向的技术产品细分类 自主手术机器人主要是由感知部分、决策部分和执行部分组成。尽管手术自主化意义重大且前景光明,但是其发展也需要在现有的技术或者产品上进行拓展延伸。决策部分对不同手术是不同的,但是感知需要的光场相机,执行用到的缝合器,机器人系统等都是现有的技术。因此,分析了这些技术的市场情况。53 3、领先级国际科创企业及学者团队定位 对全球范围内在自主手术机器人领域内取得显著成就的科技创新企业和学术团队进行分析。评估他们的技术127、创新、产品性能以及在行业内的影响力,进而将这些实体定位在技术发展和应用的前沿。此外,探讨他们的研究成果在自主手术机器人领域的重要影响,以及对未来技术趋势的推动。三、研究报告形式三、研究报告形式 行业图谱以结构化脑图为基本形式,辅以文字报告进行解释说明。文字报告的内容框架包括:概览:概述图谱传递的信息内容、解答的技术问题和目的。科学背景简述:描述图谱行业背景、技术流程、关键技术平台和竞争点的细节、技术应用的例证及国内外行业发展现状,对图谱做详细内容的补充说明。专业术语解析:针对重点专业术语进行概念解释。参考文献。54 免责声明免责声明 本报告由清华大学五道口金融学院科创金融研究中心(以下统称“研究中心”)编写。本报告仅供研究使用,并非为提供咨询意见而编写。本报告中的信息均来源于本研究中心认为可靠的已公开资料,但研究中心及其关联机构对信息的准确性及完整性不做任何保证。本报告的版权仅为研究中心所有,如需转载,请注明本文为本研究中心的著作。