当前位置:首页 >> 中药常识 >> 伯克利摘最佳研究成果,陈丹琦等华人团队杰出研究成果,ACL2022奖项公布

伯克利摘最佳研究成果,陈丹琦等华人团队杰出研究成果,ACL2022奖项公布

发布时间:2023-04-04

人的深入研究在列。

专著 1:Evaluating Factuality in Text Simplification

笔记:Ashwin Devaraj、William Berkeley Sheffield、Byron C Wallace、Junyi Jessy Li 政府部门:德克萨斯所大学奥斯汀校本部、东北所大学 专著电话号码:

概述:备用简便假设意在使回传译文更具可读性,但此类假设会在备用简便的译文中都替换成误判。因此,深入人类学家重申了一种误判亲缘,用来统计分析从标准简便数据库集和 SOTA 假设输出中都重申的参照资料。

专著 2:Online Semantic Parsing for Latency Reduction in Task-Oriented Dialogue

笔记:Jiawei Zhou、Jason Eisner、Michael Newman、Emmanouil Antonios Platanios、Sam Thomson 政府部门:哈佛所大学、Google公司 专著电话号码:

概述:标准谈表达方式句解出将明晰的服务器表达方式映射到可督导程序中都,然后督导该程序以响应服务器,平均速度确实很慢。深入人类学家过在服务器仍在表达方式时先于测和督导操作符来降较低延误的急于,并替换成了在线语句解出勤务,采用受连动机装置翻译深刻负面影响的规范延误降较低衡量。此外,他们还重申了一个标准化框架。

专著 3:Learning to Generalize to More: Continuous Semantic Augmentation for Neural Machine Translation

笔记:Xiangpeng Wei、Heng Yu、Yue Hu、Rongxiang Weng、Weihua Luo、Rong Jin 政府部门:哈吉达摩院、中都科院讯息工程深入研究所、中都国科学院所大学 专著电话号码:

概述:委派脑部机装置翻译(NMT)的亦然要勤务是学习分解以来自一组立体化短语对的源回传为前提条件的最终目标短语,从而得到一个必须泛化到未见过实例的假设。然而,通常观察到假设的泛化稳定性更大总体上受操练中都使用的立体化数据库量的负面影响。深入人类学家重申了一种新的数据库增强范式,称之为整年语句增强(Continuous Semantic Augmentation, CsaNMT),它为每个操练实例增加了一个邻接语句区域。

专著 4:Fantastically Ordered Prompts and Where to Find Them: Overcoming Few-Shot Prompt Order Sensitivity

笔记:Yao Lu、Max Bartolo、Alastair Moore、Sebastian Riedel、Pontus Stenetorp 政府部门:伦敦所大学学院、Mishcon de Reya LLP 专著电话号码:

概述:当仅使用少量操练抽样启动时,与完全委派、微调、大型、先于操练的词汇假设相对于,GPT-3 等超大先于操练词汇假设显出较强竞争力的结果。深入人类学家证明了提供抽样的左至右可以在比起 SOTA 和随机猜测稳定性之间激发差异:本质上,一些对齐好像,而另一些则不是。他们统计分析了这一成因,统计分析它存在于假设大小特别,与特定的抽样有界无关,并且一个假设的取值很好对齐不用转到到另一个假设。

因此,深入人类学家能用词汇假设的分解功用来借助于一个人工开发集,并基于该集上候选对齐的熵统计确认稳定性提示。他们的原理在 11 个各有不同的已建立译文分类勤务中都为 GPT 复刻版假设激发了 13% 的相较加以改进。

专著 5:Inducing Positive Perspectives with Text Reframing

笔记:Caleb Ziems、Minzhi Li、Anthony Zhang、Diyi Yang 政府部门:弗吉尼亚州理工学院、新加坡国立所大学 专著电话号码:

概述:该深入研究替换成了鼓励有都和统勤务,在该勤务中都,该深入研究消除放任观点并为笔记分解更鼓励的观点,而不会与早期含义相内部矛盾。为了促进快速进展,该深入研究替换成了一个大规模的基准,鼓励心理学框架(POSITIVE PSYCHOLOGY FRAMES),其较强 8349 个短语对和 12755 个结构化译文,以根据六种观点本质的有都和统方针来表述鼓励有都和统。

在四位笔记中都,杨笛一(Diyi Yang)是弗吉尼亚州理工学院交互计算学院经理大学教授。

专著 6:Ditch the Gold Standard: Re-evaluating Conversational Question Answering

笔记:Huihan Li、较高天宇、Manan Goenka、陈丹琦 政府部门:普林斯顿所大学 专著电话号码:

概述:在这项指导中都,该深入研究对 SOTA 谈话式 QA 都和统进行了首次大规模的人类衡量,其中都人类衡量员与假设进行谈话,并正确其答案的正确性。该深入研究可推测人机(humanmachine)谈话的产自与人 - 人(human-human )谈话的产自有更大的各有不同,在假设排名特别,人类衡量和黄金发展史(goldhistory)衡量存在分歧。该深入研究全面深入研究了如何加以改进备用衡量,并重申了一种基于先于测发展史的难题重写功能,该功能可以与人类正确更高地关联。之前,该深入研究统计分析了各种建模方针的负面影响,并辩论了借助于更高的谈话式题目都和统的今后方向。

专著笔记之一为普林斯顿所大学耶鲁大学二年级学生较高天宇,师从所学校计算机科学都和经理大学教授陈丹琦。

专著 7:Active Evaluation: Efficient NLG Evaluation with Few Pairwise Comparisons

笔记:Akash Kumar Mohankumar、Mitesh M Khapra 政府部门:Google公司、印度理工学院加尔各答校本部 专著电话号码:

概述:在这项指导中都,该深入研究替换成了亦然动衡量,在 13 个 NLG 衡量数据库集上使用 13 个 dueling bandits 线性进行了较广的试验,涵盖 5 个勤务,试验表明人工译文的存量可以降较低 80%。为了全面降较低人工译文的存量,该深入研究重申了基于假设的 dueling bandit 线性,该线性将备用衡量衡量与人工衡量相结合,这将所需的人工译文存量全面降较低了 89%。

专著 8:Compression of Generative Pre-trained Language Models via Quantization

笔记:Chaofan Tao、Lu Hou、Wei Zhang、Lifeng Shang、Xin Jiang、Qun Liu、Ping Luo、Ngai Wong 政府部门:香港所大学、华为诺亚试验室 专著电话号码:

概述:本文采用量化原理对分解式 PLM(Pre-trained Language Models)进行传输。他们重申了一种 token 级的对比蒸馏原理来学习可区分的词插入,此外,该深入研究还重申了一种模块级的高效率扩展来使量化装置充分利用各有不同的模块。在各种勤务的潜能结果表明,该深入研究重申的原理在分解 PLM 上明显优于 SOTA 传输原理。在 GPT-2 和 BART 上分别付诸了 14.4 倍和 13.4 倍的传输率。

其他奖得亦然项

会议还暂定了最佳人力资源专著(Best Resource Paper)和最佳词汇想象力专著(Best Linguistic Insight Paper),分别由罗马所大学以及马萨诸塞所大学阿默斯特校本部等政府部门的深入人类学家获得。

最佳人力资源专著:DiBiMT: A Novel Benchmark for Measuring Word Sense Disambiguation Biases in Machine Translation

笔记:Niccolò Campolungo、Federico Martelli、Francesco Saina、Roberto Navigli 政府部门:罗马所大学、SSML Carlo Bo 专著电话号码:

最佳词汇想象力专著:KinyaBERT: a Morphology-aware Kinyarwanda Language Model

笔记:Antoine Nzeyimana、Andre Niyongabo Rubungo 政府部门:马萨诸塞所大学阿默斯特校本部、安达卢西亚理工所大学 专著电话号码:

参照客户端:

西宁妇科最好医院是哪个
宝鸡白癜风医院怎么样
重庆看白癜风去什么医院好
北京白癜风医院哪家比较专业
武威哪家看白癜风好
友情链接: