Signs平台正在创建具有里程碑意义的ASL视频数据库,其目标规模40万片段将超越现有的包含12万样本的WLASL数据集。该数据集的核心价值在于三点:1) 每段视频都经过ASDC认证的手语专家标注,包含精确到帧的动作分解描述;2) 收集场景覆盖不同年龄、种族使用者的自然手势变体;3) 配套元数据详细记录拍摄角度、光线条件等环境参数。
数据集构建采用创新的众包-专家协同模式:普通用户上传的原始视频首先通过基础质量筛选(如分辨率≥720p、背景纯净度检测),然后进入三阶验证流程——初级AI过滤明显错误,中级由社区资历用户交叉验证,最终由专业口译员确认语义准确性。这种机制确保了数据标签可信度达到99.2%,远超行业平均水平的85%。
该数据集已应用于多个前沿研究项目,包括CMU的连续手语识别系统和微软的表情辅助理解模型。平台采用Creative Commons 4.0协议开放数据集,开发者可通过API获取经脱敏处理的样本,这显著降低了手语AI的研发门槛。
本答案来源于文章《Signs:通过AI技术助力学习和贡献美国手语的互动平台》