耗时5年时间,天津理工大学鲸言创益无障碍智能科技研发团队,构建起一个包含30余万条视频的语料库,研发出“复杂场景下中国手语实时翻译系统”。
该系统利用丰富的语料库构建算法,听障人士一边手语,屏幕就可以自动“翻译”出语音或文字。系统在2021年已经涵盖教育、法律、餐饮、交通等应用场景,在光线充足的环境下,识别率可达95%。今年之内,这套系统将应用于天津理工大学的办公楼,楼内大厅将出现一个交互机器人和一块交互大屏,让所有听障人士都可以被“听见”。
我们的科技留言板及得到用户“有意见”如下
@竹罗纪:北京冬残奥会召开前夕,人工智能机器人用六个国家不同的手语打出了“北京欢迎你”。在比赛场上也能看到很多智能语音识别产品。真正强大的科技,应该让每一个“少数群体”也能够享受到科技的力量。大到国际赛事,小到日常生活、学习、医疗。天津理工大学研发的手语实时翻译系统的落地,让听障人士能够更好地表达和交流,帮助他们更准确地传递信息,从方方面面改善和提升了“少数群体”的生活质量。
@老董:人工智能的手语识别里面包含了语音识别、图像识别、文字识别、数据分析等多项技术,比技术更困难的,应该是对手语资料的收集工作。天津理工大学计算机学院可以学有所用、学有所为,研发的手语实时翻译系统,不但可以令正常人与听障人士的交流变得更加自如。也让听障人士可以自如地融入数字化世界,为天津大学点赞。
@peggy:分享蒋昌建的一句金句:科技,要让弱者变强,让强者更有爱。讲真,这个世界,到底谁是强者?谁又是弱者?把这句话再读一遍,过度理解一下,或许更有意义。科技,要让我们每个人变得更强,同时也让我们更富爱心。用这份爱心,尽自己所能去帮助更多人。
好文章,需要你的鼓励
Queen's大学研究团队提出结构化智能体软件工程框架SASE,重新定义人机协作模式。该框架将程序员角色从代码编写者转变为AI团队指挥者,建立双向咨询机制和标准化文档系统,解决AI编程中的质量控制难题,为软件工程向智能化协作时代转型提供系统性解决方案。
苹果在iOS 26公开发布两周后推出首个修复更新iOS 26.0.1,建议所有用户安装。由于重大版本发布通常伴随漏洞,许多用户此前选择安装iOS 18.7。尽管iOS 26经过数月测试,但更大用户基数能发现更多问题。新版本与iPhone 17等新机型同期发布,测试范围此前受限。预计苹果将继续发布后续修复版本。
西北工业大学与中山大学合作开发了首个超声专用AI视觉语言模型EchoVLM,通过收集15家医院20万病例和147万超声图像,采用专家混合架构,实现了比通用AI模型准确率提升10分以上的突破。该系统能自动生成超声报告、进行诊断分析和回答专业问题,为医生提供智能辅助,推动医疗AI向专业化发展。