耗时5年时间,天津理工大学鲸言创益无障碍智能科技研发团队,构建起一个包含30余万条视频的语料库,研发出“复杂场景下中国手语实时翻译系统”。
该系统利用丰富的语料库构建算法,听障人士一边手语,屏幕就可以自动“翻译”出语音或文字。系统在2021年已经涵盖教育、法律、餐饮、交通等应用场景,在光线充足的环境下,识别率可达95%。今年之内,这套系统将应用于天津理工大学的办公楼,楼内大厅将出现一个交互机器人和一块交互大屏,让所有听障人士都可以被“听见”。
我们的科技留言板及得到用户“有意见”如下
@竹罗纪:北京冬残奥会召开前夕,人工智能机器人用六个国家不同的手语打出了“北京欢迎你”。在比赛场上也能看到很多智能语音识别产品。真正强大的科技,应该让每一个“少数群体”也能够享受到科技的力量。大到国际赛事,小到日常生活、学习、医疗。天津理工大学研发的手语实时翻译系统的落地,让听障人士能够更好地表达和交流,帮助他们更准确地传递信息,从方方面面改善和提升了“少数群体”的生活质量。
@老董:人工智能的手语识别里面包含了语音识别、图像识别、文字识别、数据分析等多项技术,比技术更困难的,应该是对手语资料的收集工作。天津理工大学计算机学院可以学有所用、学有所为,研发的手语实时翻译系统,不但可以令正常人与听障人士的交流变得更加自如。也让听障人士可以自如地融入数字化世界,为天津大学点赞。
@peggy:分享蒋昌建的一句金句:科技,要让弱者变强,让强者更有爱。讲真,这个世界,到底谁是强者?谁又是弱者?把这句话再读一遍,过度理解一下,或许更有意义。科技,要让我们每个人变得更强,同时也让我们更富爱心。用这份爱心,尽自己所能去帮助更多人。
好文章,需要你的鼓励
这项研究由德累斯顿工业大学等机构的研究团队完成,旨在解决主动学习未被广泛应用的问题。研究者构建了包含460万种超参数组合的实验网格,系统分析了各参数对主动学习性能的影响。研究发现,不同策略实现间存在显著差异,基于边缘的不确定性策略整体表现最佳,随机选择约4000个超参数组合即可获得可靠结果。这些发现为设计可重现、可信赖的主动学习实验提供了明确指导,有助于降低入门门槛,促进技术在实际应用中的普及。
这项由英国爱丁堡大学和上海人工智能实验室研究者共同完成的工作提出了LongBioBench,一种用于评估长文本语言模型的新型基准测试框架。通过使用人工生成的虚构人物传记作为测试环境,该框架在保持可控性的同时,提供了更真实的评估场景。研究对18个长文本模型的测试表明,即使最先进的模型在检索、推理和可信任性方面仍存在显著挑战,特别是上下文长度增加时。研究还揭示了现有合成基准测试的设计缺陷和长上下文预训练的局限性,为未来模型开发提供了重要指导。
SuperWriter是一项来自新加坡科技设计大学和清华大学的突破性研究,通过模仿人类"先思考后写作"的过程,彻底改良了AI长文生成能力。该研究团队开发的框架包含三个关键阶段:规划、写作和修改,使AI能像专业作家一样进行结构化思考。实验结果表明,经过训练的SuperWriter-LM模型不仅超越同等规模的所有AI模型,甚至在某些领域表现优于规模更大的顶级模型,为AI辅助写作开创了新的可能性。
香港大学与阿里巴巴达摩院合作开发的LayerFlow是一种突破性的层级视频生成技术,能同时生成透明前景、完整背景和混合场景视频。该技术通过创新的框架设计将不同视频层级作为子片段连接,并引入层级嵌入使模型区分各层级。面对高质量训练数据稀缺的挑战,研究团队设计了三阶段训练策略,结合Motion LoRA和Content LoRA,实现了图像和视频数据的联合训练。LayerFlow不仅支持多层视频生成,还能实现视频分解和条件层生成,为视频创作领域带来革命性变革。