近日,杭州瞳行科技正式推出国内首台ai助盲眼镜,致力于以人工智能技术切实缓解视障人士在日常出行与生活场景中面临的现实困境。该产品已完成全套化设计并上架销售,包含ai眼镜本体、专属配套手机、可穿戴遥控指环及一根智能适配盲杖,用户可一站式购齐、即开即用。
这款眼镜功能全面,覆盖出行避障、物品查找与文本识别、语音交互助手、一键紧急求助亲友等核心需求。在出行模式下,系统端到端延迟控制在约300毫秒以内,响应极为迅捷,能精准匹配人体自然步频——每迈出一步,即可同步获取实时路况语音提示。
硬件层面,设备搭载121度超广角双摄像头模组,协同手机端强大算力与指环式交互操作,构建起“感知—决策—反馈”的闭环式人机协作体系。技术实现上,并未采用单一模型架构。瞳行融合自研视觉理解模型与通义千问Qwen-VL多模态大模型、OCR识别系列模型,并针对不同使用情境进行精细化参数调优与任务分流。

例如,在避障类场景中,系统需在毫秒级内判断前方是否存在大型障碍物及其可通行性(如能否迈过台阶),此时模型输出高度精简、指令明确,如“正前方有三级台阶,左侧2米处有慢行行人”,信息被压缩为可立即执行的动作指引;而在找店点餐类场景中,系统需准确识别招牌文字、菜单段落排版、窗口价目表等多源异构信息,会对图像内容进行深度结构化解析与语义整合,再通过语音清晰复述关键要素,处理耗时略长但信息维度更完整、上下文更连贯。
研发团队在模型选型与硬件配置之间进行了大量权衡取舍。为保障避障响应的极致低延时,他们将大模型能力按场景解耦:对强时效性任务(如动态避让)优先启用轻量化本地推理逻辑,大模型仅作辅助校验;而对依赖深层语义解析与长文本理解的任务(如菜单解读、公告阅读),才激活高复杂度模型参与运算。
硬件选型亦围绕实用性展开:超宽视角双摄显著缩小视觉盲区;指环支持无感切换功能模式与触发SOS求助;手机承担主要计算负载与网络连接任务;传统盲杖则予以保留并做智能化适配,延续用户既有使用习惯。
出行难,长期是视障群体最突出的生活痛点。我国视力障碍人口逾1700万,日常通勤高度依赖电子导航与他人协助,却频繁遭遇“最后十米”导航失效问题——门牌模糊不清、出入口被临时占用、楼道标识缺失或位置隐蔽等情形屡见不鲜;加之公共服务响应存在不确定性,不少视障者被迫大幅减少外出频次,甚至长期居家。
本款AI助盲眼镜正是直击上述高频难点,重点强化复杂城市环境下的毫秒级环境感知能力与自然语言交互体验。从行业方法论看,瞳行采取“通用基座模型+垂直场景微调”的技术路径,提升模型复用效率与落地适配性。
市场与技术总监曾指出:“在大模型尚未普及的阶段,独立部署高性能AI算力的成本极高,中小创业公司往往难以承受。如今随着通义千问等高质量开源基础模型的成熟与算力基础设施成本持续下降,企业得以将资源重心转向场景工程打磨与用户体验优化,真正让这类软硬一体的助残硬件具备规模化落地与可持续运营的商业基础。”
还木有评论哦,快来抢沙发吧~