本文将为您介绍10个经典、热门的数据集,希望对您在选择适合的数据集时有所帮助。
1
RenderMe-360
-
发布方:
上海人工智能实验室
-
发布时间:
2023-05-24
-
简介:
RenFace是一个大规模多视角人脸高清视频数据集,包含多样的人脸表情、丰富的细粒度发型发色,同时也包含音素均衡的说话视频。可应用于:2D/3D数字人脸生成、人脸重建捕捉等领域。
-
下载地址:
https://renderme-360.github.io/; https://openxdlab.org.cn/home
2
ODSQA (Open-Domain Spoken Question Answering)
-
发布方:
台湾大学
-
发布时间:
2018
-
简介:
ODSQA 数据集是用于中文问答的口语数据集。它包含来自 20 位不同演讲者的三千多个问题。
-
下载地址:
https://github.com/chiahsuan156/ODSQA
-
论文地址:https://arxiv.org/pdf/1808.02280v1.pdf
3
EDT
-
发布方:
Northwestern University
-
发布时间:
2021
-
简介:
EDT 数据集专为企业事件检测和基于文本的股票预测(交易策略)基准而设计。它包括 9721 篇带有令牌级事件标签的新闻文章和 303893 篇带有分钟级时间戳和综合股价标签的新闻文章。 EDT 包含用于三个目的的数据: 1. 企业事件检测; 2. 基于新闻的交易策略基准; 3.金融领域适配。
-
下载地址:https://github.com/Zhihan1996/TradeTheEvent/tree/main/data
-
论文地址:
https://arxiv.org/pdf/2105.12825v2.pdf
4
WHAM! (WSJ0 Hipster Ambient Mixtures)
-
发布方:
三菱电机研究实验室·Whisper AI
-
发布时间:
2019
-
简介:
“WSJ0 Hipster Ambient Mixtures (WHAM!) 数据集将 wsj0-2mix 数据集中的每个双说话者混合与独特的噪声背景场景配对。它有一个名为 WHAMR! 的扩展,它还为语音信号添加了人工混响到背景噪音。噪音音频于 2018 年底在旧金山湾区的各个城市地点收集。环境主要包括餐馆、咖啡馆、酒吧和公园。音频是使用三脚架上的 Apogee Sennheiser 双耳麦克风录制的离地 1.0 到 1.5 米。”
-
下载地址:https://renderme-360.github.io/; https://openxdlab.org.cn/home
-
论文地址:https://arxiv.org/pdf/1907.01160v1.pdf
5
RenderMe-360
-
发布方:
上海人工智能实验室
-
发布时间:
2023-05-24
-
简介:
RenFace是一个大规模多视角人脸高清视频数据集,包含多样的人脸表情、丰富的细粒度发型发色,同时也包含音素均衡的说话视频。可应用于:2D/3D数字人脸生成、人脸重建捕捉等领域。
-
下载地址:
https://renderme-360.github.io/; https://openxdlab.org.cn/home
6
UrbanSound8K
-
发布方:
纽约大学城市科学与进步中心·纽约大学音乐与音频研究实验室
-
发布时间:2014
-
简介:
“这个数据集包含来自 10 个类别的 8732 个城市声音的标记声音摘录 (<=4s):air_conditioner、car_horn、children_playing、dog_bark、drilling、enginge_idling、gun_shot、jackhammer、siren 和 street_music。这些类别来自城市声音分类法。有关数据集的详细说明及其编译方式,请参阅我们的论文。所有摘录均来自上传到 www.freesound.org 的现场录音。文件预先分类为十个文件夹(文件夹名为 fold1 “
-
下载地址:https://urbansounddataset.weebly.com/urbansound8k.html
-
论文地址:
http://www.justinsalamon.com/uploads/4/3/9/4/4394963/salamon_urbansound_acmmm14.pdf
7
VCTK (CSTR VCTK Corpus)
-
发布方:
爱丁堡大学
-
发布时间:
2017
-
简介:
这个 CSTR VCTK 语料库包含 110 位不同口音的英语使用者发出的语音数据。每位演讲者读出大约 400 个句子,这些句子选自报纸、彩虹段落和用于演讲口音档案的启发段落。经 Herald & Times Group 许可,报纸上的文字取自 Herald Glasgow。每个演讲者都有一组不同的报纸文本,这些文本是根据增加上下文和语音覆盖率的贪心算法选择的。文本选择算法的详细信息在以下论文中进行了描述:C. Veaux、J. Yamagishi 和 S. King,“语音库语料库:大型区域口音语音数据库的设计、收集和数据分析”,https:/ /doi.org/10.1109/ICSDA.2013.6709856。所有演讲者的彩虹段落和启发段落都是相同的。彩虹段落可以在英语档案的国际方言中找到:(http://web.ku.edu/~idea/readings/rainbow.htm)。启发段落与用于语音口音档案 (http://accent.gmu.edu) 的段落相同。可以在 http://www.ualberta.ca/~aacl2009/PDFs/WeinbergerKunath2009AACL.pdf 找到语音口音档案的详细信息。所有语音数据均使用相同的录音设置进行录音:全向麦克风 (DPA 4035) 和带宽非常宽的小型振膜电容麦克风 (Sennheiser MKH 800),采样频率为 96kHz,24 位,半消声室为爱丁堡大学。 (但是,两个扬声器 p280 和 p315 在使用 MKH 800 进行录音时存在技术问题)。所有录音都转换为 16 位,下采样到 48 kHz,并手动结束。
-
下载地址:
https://datashare.is.ed.ac.uk/handle/10283/2651
-
论文地址:
https://arxiv.org/pdf/1609.03499.pdf
8
OpenNLPLab/FAVDBench
-
发布方:
上海人工智能实验室
-
发布时间:
2023-07-19
-
简介:
在CVPR2023中我们提出了精细化音视频描述任务(Fine-grained Audible Video Description, FAVD)该任务旨在提供有关可听视频的详细文本描述,包括每个对象的外观和空间位置、移动对象的动作以及视频中的声音。我们同是也为社区贡献了第一个精细化音视频描述数据集FAVDBench。对于每个视频片段,我们不仅提供一句话的视频概要,还提供4-6句描述视频的视觉细节和1-2个音频相关描述,且所有的标注都有中英文双语。
-
下载地址:
https://github.com/OpenNLPLab/FAVDBench
-
论文地址:
https://openaccess.thecvf.com/content/CVPR2023/html/Shen_Fine-Grained_Audible_Video_Description_CVPR_2023_paper.html
9
AISHELL-3
-
发布方:
北京希尔科技
-
发布时间:2020
-
简介:
AISHELL-3 是一个大规模、高保真的多说话人普通话语料库,可用于训练多说话人文本到语音(TTS)系统。该语料库包含大约 85 小时的情绪中性录音,由 218 位以汉语为母语的人讲过,总共有 88035 条话语。它们的性别、年龄组和母语口音等辅助属性在语料库中被明确标记和提供。相应地,在录音的同时还提供了汉字级和拼音级的成绩单。通过专业的语音标注和严格的语调质量检测,词音转录准确率在98%以上。
-
下载地址:
http://www.aishelltech.com/aishell_3
-
论文地址:
https://arxiv.org/pdf/2010.11567v2.pdf
10
Speech Commands
-
发布方:
Google AI Research
-
发布时间:
2017-08-03
-
简介:
语音命令是一个语音单词的音频数据集,旨在帮助训练和评估关键字识别系统。该数据集 (1.4 GB) 65,000了30个短词的一秒钟长话语,由数千个不同的人提供,由公众通过AIY网站提供。这是一套一秒的。wav音频文件,每个文件都包含一个口语单词。这些单词来自一小部分命令,并由各种不同的说话者说出。音频文件会根据它们包含的单词组织到文件夹中,并且此数据集旨在帮助训练简单的机器学习模型。
-
下载地址:
https://ai.googleblog.com/2017/08/launching-speech-commands-dataset.html
-
论文地址:
https://arxiv.org/pdf/1804.03209v1.pdf
温馨 小贴士
如有您想了解的计算机方向数据集
请联系我们
免费为您提供数据集搜索服务