伯克利摘最佳研究成果,陈丹琦等华人团队杰出研究成果,ACL2022奖项公布
发布时间:2023-04-10
专著 1:Evaluating Factuality in Text Simplification
笔记:Ashwin Devaraj、William Berkeley Sheffield、Byron C Wallace、Junyi Jessy Li 政府部门:德克萨斯所大学奥斯汀校本部、东北所大学 专著电话号码:概述:备用简便假设意在使回传译文更具可读性,但此类假设会在备用简便的译文中都替换成误判。因此,深入人类学家重申了一种误判亲缘,用来统计分析从标准简便数据库集和 SOTA 假设输出中都重申的参照资料。
专著 2:Online Semantic Parsing for Latency Reduction in Task-Oriented Dialogue
笔记:Jiawei Zhou、Jason Eisner、Michael Newman、Emmanouil Antonios Platanios、Sam Thomson 政府部门:哈佛所大学、Google公司 专著电话号码:概述:标准谈表达方式句解出将明晰的服务器表达方式映射到可督导程序中都,然后督导该程序以响应服务器,平均速度确实很慢。深入人类学家过在服务器仍在表达方式时先于测和督导操作符来降较低延误的急于,并替换成了在线语句解出勤务,采用受连动机装置翻译深刻负面影响的规范延误降较低衡量。此外,他们还重申了一个标准化框架。
专著 3:Learning to Generalize to More: Continuous Semantic Augmentation for Neural Machine Translation
笔记:Xiangpeng Wei、Heng Yu、Yue Hu、Rongxiang Weng、Weihua Luo、Rong Jin 政府部门:哈吉达摩院、中都科院讯息工程深入研究所、中都国科学院所大学 专著电话号码:概述:委派脑部机装置翻译(NMT)的亦然要勤务是学习分解以来自一组立体化短语对的源回传为前提条件的最终目标短语,从而得到一个必须泛化到未见过实例的假设。然而,通常观察到假设的泛化稳定性更大总体上受操练中都使用的立体化数据库量的负面影响。深入人类学家重申了一种新的数据库增强范式,称之为整年语句增强(Continuous Semantic Augmentation, CsaNMT),它为每个操练实例增加了一个邻接语句区域。
专著 4:Fantastically Ordered Prompts and Where to Find Them: Overcoming Few-Shot Prompt Order Sensitivity
笔记:Yao Lu、Max Bartolo、Alastair Moore、Sebastian Riedel、Pontus Stenetorp 政府部门:伦敦所大学学院、Mishcon de Reya LLP 专著电话号码:概述:当仅使用少量操练抽样启动时,与完全委派、微调、大型、先于操练的词汇假设相对于,GPT-3 等超大先于操练词汇假设显出较强竞争力的结果。深入人类学家证明了提供抽样的左至右可以在比起 SOTA 和随机猜测稳定性之间激发差异:本质上,一些对齐好像,而另一些则不是。他们统计分析了这一成因,统计分析它存在于假设大小特别,与特定的抽样有界无关,并且一个假设的取值很好对齐不用转到到另一个假设。
因此,深入人类学家能用词汇假设的分解功用来借助于一个人工开发集,并基于该集上候选对齐的熵统计确认稳定性提示。他们的原理在 11 个各有不同的已建立译文分类勤务中都为 GPT 复刻版假设激发了 13% 的相较加以改进。
专著 5:Inducing Positive Perspectives with Text Reframing
笔记:Caleb Ziems、Minzhi Li、Anthony Zhang、Diyi Yang 政府部门:弗吉尼亚州理工学院、新加坡国立所大学 专著电话号码:概述:该深入研究替换成了鼓励有都和统勤务,在该勤务中都,该深入研究消除放任观点并为笔记分解更鼓励的观点,而不会与早期含义相内部矛盾。为了促进快速进展,该深入研究替换成了一个大规模的基准,鼓励心理学框架(POSITIVE PSYCHOLOGY FRAMES),其较强 8349 个短语对和 12755 个结构化译文,以根据六种观点本质的有都和统方针来表述鼓励有都和统。
在四位笔记中都,杨笛一(Diyi Yang)是弗吉尼亚州理工学院交互计算学院经理大学教授。
专著 6:Ditch the Gold Standard: Re-evaluating Conversational Question Answering
笔记:Huihan Li、较高天宇、Manan Goenka、陈丹琦 政府部门:普林斯顿所大学 专著电话号码:概述:在这项指导中都,该深入研究对 SOTA 谈话式 QA 都和统进行了首次大规模的人类衡量,其中都人类衡量员与假设进行谈话,并正确其答案的正确性。该深入研究可推测人机(humanmachine)谈话的产自与人 - 人(human-human )谈话的产自有更大的各有不同,在假设排名特别,人类衡量和黄金发展史(goldhistory)衡量存在分歧。该深入研究全面深入研究了如何加以改进备用衡量,并重申了一种基于先于测发展史的难题重写功能,该功能可以与人类正确更高地关联。之前,该深入研究统计分析了各种建模方针的负面影响,并辩论了借助于更高的谈话式题目都和统的今后方向。
专著笔记之一为普林斯顿所大学耶鲁大学二年级学生较高天宇,师从所学校计算机科学都和经理大学教授陈丹琦。
专著 7:Active Evaluation: Efficient NLG Evaluation with Few Pairwise Comparisons
笔记:Akash Kumar Mohankumar、Mitesh M Khapra 政府部门:Google公司、印度理工学院加尔各答校本部 专著电话号码:概述:在这项指导中都,该深入研究替换成了亦然动衡量,在 13 个 NLG 衡量数据库集上使用 13 个 dueling bandits 线性进行了较广的试验,涵盖 5 个勤务,试验表明人工译文的存量可以降较低 80%。为了全面降较低人工译文的存量,该深入研究重申了基于假设的 dueling bandit 线性,该线性将备用衡量衡量与人工衡量相结合,这将所需的人工译文存量全面降较低了 89%。
专著 8:Compression of Generative Pre-trained Language Models via Quantization
笔记:Chaofan Tao、Lu Hou、Wei Zhang、Lifeng Shang、Xin Jiang、Qun Liu、Ping Luo、Ngai Wong 政府部门:香港所大学、华为诺亚试验室 专著电话号码:概述:本文采用量化原理对分解式 PLM(Pre-trained Language Models)进行传输。他们重申了一种 token 级的对比蒸馏原理来学习可区分的词插入,此外,该深入研究还重申了一种模块级的高效率扩展来使量化装置充分利用各有不同的模块。在各种勤务的潜能结果表明,该深入研究重申的原理在分解 PLM 上明显优于 SOTA 传输原理。在 GPT-2 和 BART 上分别付诸了 14.4 倍和 13.4 倍的传输率。
其他奖得亦然项
会议还暂定了最佳人力资源专著(Best Resource Paper)和最佳词汇想象力专著(Best Linguistic Insight Paper),分别由罗马所大学以及马萨诸塞所大学阿默斯特校本部等政府部门的深入人类学家获得。
最佳人力资源专著:DiBiMT: A Novel Benchmark for Measuring Word Sense Disambiguation Biases in Machine Translation
笔记:Niccolò Campolungo、Federico Martelli、Francesco Saina、Roberto Navigli 政府部门:罗马所大学、SSML Carlo Bo 专著电话号码:最佳词汇想象力专著:KinyaBERT: a Morphology-aware Kinyarwanda Language Model
笔记:Antoine Nzeyimana、Andre Niyongabo Rubungo 政府部门:马萨诸塞所大学阿默斯特校本部、安达卢西亚理工所大学 专著电话号码:参照客户端:
。上火喉咙痛买什么药拉肚子吃蒙脱石散怎么样
广东儿科哪家医院最好
肠胃炎拉肚子吃什么药
长期便秘是因为什么原因导致的
-
领导常说这三种谎言,不要轻易地相信,被利用后,只会前途
现今在转到母公司文书工作直至,实际上很多职员都明白,想要跟主导有越来越先入一层的关系,就必须要遵循母公司里面的的,不然就很非常容易被主导所反感或者鄙视,可是在坚信了主导的真相不久,大家却很非常容
- 2025-05-15一天爆涨17倍,南南资源(01229)超级过山车,股票难难?
- 2025-05-15山东杞县:夏至时节 荷花盛开
- 2025-05-15混合得越差的中年人,越会在这三个方面犯糊涂,不要一错再错
- 2025-05-15开润股份最新日前:拟推第六期员工持股计划
- 2025-05-15远光软件(002063.SZ)发布2021年股份期权激励计划
- 2025-05-15@县区游客 峨眉山景区门票买一送一
- 2025-05-15黄子佼和小19岁女友的婚礼取消,我忘不了他和小S曾宝仪的爱恋
- 2025-05-15中泰化学:公司南黄竹山煤矿位于准东煤田将军庙矿区
- 2025-05-15“你花我儿子1千买包不心疼吗”“你每月花我奶奶3千养你小儿子”
- 2025-05-15ST云投(002200):诉讼应