本篇文章3261字,读完约8分钟
机心报道
魔王,杜伟
aaai首次与acm sigai合作发表博士论文奖,mit博士吴佳俊获得了该奖。 runners-up博士论文奖授予了毕业于佐治亚理工大学的aishwarya agrawal和毕业于爱丁堡大学的li dong (董力)。
aai与acm sigai共同首次发表博士论文奖,mit博士吴佳俊在论文《learning to see the physical world》中获得aaai/acm sigai博士论文奖,佐治亚理工大学aishwarya agrawal
aaai/acm sigai博士论文奖由aaai和acm sigai共同设立,目的是发现和鼓励人工智能行业优秀的博士研究和论文。 这是年度奖,出现在一年一度的aaai会议上,获奖者在会上发表演讲。
aaai的第一个博士论文奖由mit学霸吴佳俊获得。
mit博士吴佳俊在论文《learning to see the physical world》中获得了第一个aaai/acm sigai博士论文奖。 到目前为止,这篇论文还在获得。
该论文通过整合神经网络中自下而上的识别引擎和自上而下的仿真引擎、图模型和概率计划,推动了ai在感知物理世界方面的迅速发展。
论文地址: Jiajun Wu/PaPers/dissertation.PDF
人工智能在过去十年取得了长足的进步,但现在的ai方法只能应对用户的问题,需要大量的训练数据,同时,如果泛化到新任务和新环境中,则容易崩溃。 人类智能明确了人工智能的快速发展道路有多远:可以提供一张图像,说明人类看到的东西,重建3d场景,预测即将发生的事件,制定行动计划。
吴佳俊博士论文的主题是理解物理场景,即如何构建注意和推理与物理世界相互作用的高效通用机器。 其核心想法是将计算机图形、物理学、语言学中的模拟引擎与深入学习相结合,充分发掘物理世界的因果结构。
这篇博士论文涵盖了知觉、物理、推理的很多行业的副本,目的是培养像人类一样注意和推理物理世界的人工智能。 另外,本文融合了人工智能的多方面,处理了知觉、动态建模、识别推理的多方面的重要问题。
论文作者吴佳俊现在是斯坦福大学的计算机科学系助理教授。 他毕业于清华大学姚班,之后在麻省理工大学( mit )陆续完成硕博阶段的研究学习。 他的研究很有趣。 包括理解物理场景、动态模型、多模式感知和视觉模型的生成。
个人主页:建俊五/
吴佳俊的人生历程可以说是传说。 他是清华大学交叉新闻研究院班的本科生,后来进入姚班学习。 本科期间连续三年获得全年级第一名,获得清华大学本科生特等奖学金、蒋南翔奖学金、姚期智奖学金等。
学术方面,吴佳俊在cvpr、iclr、icml、neurips等世界级学术会议上收到了多篇论文。 谷歌scholar的数据显示,他迄今已发表了81篇论文,引用数超过5000篇。
在iclr最高产论文的作者排行榜中,吴佳俊名列其中。
runners-up博士论文奖
aaai/acm sigai三个runners-up博士论文奖是由毕业于佐治亚理工大学的aishwarya agrawal和毕业于爱丁堡大学的董力获得的。
aishwarya agrawal获奖论文:聚焦于视觉问答
aishwarya agrawal在博士论文《visualquestionansweringandbeyond》中获得了该奖runners-up。
论文地址: smartech.gatech.edu/handle/1853/62277
本文的研究主题是多模式人工智能任务视觉问答( vqa ) :给出图像,提出与该图像相关的自然语言问题,机器自动给出正确的答案。 在这篇论文中,aishwarya agrawal研究了以下几个问题。
如何创建大型数据集,如何定义自由格式和开放vqa的判断指标
如何开发能描述vqa模型行为的技术
训练数据中语言偏差的影响较小,如何构建更visually grounded的vqa模型。
aishwarya agrawal在迄今为止的主要研究中展示了可以“看到”和“说话”的代理,但从实用化的角度来看,我们认为需要能够行动的代理。 论文第六章介绍了构建可以采取行动的视觉语言代理的未来研究方向。
个体主页: cc.gatech.edu/~aagrawal307/
aishwarya agrawal现在是deepmind (伦敦办公室)的研究科学家。 年8月,她在博士论文中答辩,获得了佐治亚理工大学交互计算学院的博士学位。
aishwarya agrawal的研究是计算机视觉、深度学习、自然语言解决的交叉行业,开发了“看”(即理解图像副本)和“说话”(以后理解的副本以自由形式的自然语言传递给人类)的人工智能系统
她的这篇博士论文获得了佐治亚理工大学sigma xi最佳博士论文奖和佐治亚理工学院计算机学院论文奖。
李东获奖论文:利用神经模型学习自然语言界面
李东的获奖论文是“learningnaturallanguageinterfaceswithneuralmodels”。
论文地址: era.ed.ac.uk/handle/1842/35587
人类用自然语言交流,但计算机只能理解和执行形式语言。 这篇论文的主题是利用神经模型构建自然语言界面,映射自然语言表达和机器可读表达。 由于以下几个原因,这项任务非常困难。
1 )自然语言和形式语言之间的结构不一致
2 )输出表现的结构良好性( well-formedness )
三)没有不明确性的消息和可解释性
4 )模型对语言变体的展望问题。
这篇论文开发了一些灵活的神经结构来应对这样的课题。
该研究提出了基于观察力增强编码器解码器神经网络的模型构建自然语言接口。。 在该研究中,除了序列建模之外,还提出了利用语义表达的复合性和结构的良好性,用自上而下的方法递归生成层次结构的树解码器。 为了建模不同粒度水平的意义,该研究提出了结构感知神经结构,从粗糙到细致的过程来解码语义表达。
这些神经模型依然很难解释,大部分情况下是黑匣子。 因此,李东试图估计和解释模型的预测可靠性,并希望为客户提供实时有用的反馈。
模型杠杆是引起自然语言界面不明确性的主要因素。 因此,在这个研究中,开发了共同的框架来解决自然语言用不同的方法表达同一新闻的情况。 研究者利用外部资源生成输入的适当转换,并提供给对最有可能得到正确答案的语言表达分配更高权重的评分模型。 其模型组件使用由模板任务提供的监视信号通过端到端的方法进行训练。
实验表明,该研究提出的神经模型可以很容易地移植到不同的任务中。 另外,考虑输出结构的良好性、可靠性建模、模型覆盖的改善,有助于改善自然语言界面的鲁棒性。
个人主页: dong.li/
董力现在是微软亚研自然语言计算组的高级研究员。 他的本科毕业于北京航空航天大学计算机学院( 2008-),博士毕业于英国爱丁堡大学(-)。 那个研究做结构化数据和副本的桥梁很有趣。
董力曾获得微软亚研奖学金和acl最佳论文荣誉奖,担任过emnlp-19、emnlp-20、naacl-21和acl-21行业主席、acl、ijcai、aaai等学术。
参考链接:
sigai.ACM/awards/doctoral _ dissertation _ award
11月14日,devrun开发者沙龙航道将登陆上海。 华为云技术大咖啡带领开发者玩modelarts,解读华为云iot服务和ai如何实现互操作。 聚焦华为云modelarts和iot智能设备,为开发者带来充满干货的技术宴会。 扫描二维码,参加注册。
© the end
转载请联系本公众号获得批准
寻求帖子或文章: content@jiqizhixin
喜欢这个复印件的人还喜欢
原标题:“第一届aaai/acm sigai博士论文奖发表,清华姚班毕业生,mit学霸吴佳俊获奖”
阅读原文。
来源:重庆新闻
标题:热门:首届AAAI/ACM SIGAI博士论文奖公布, 清华姚班毕业生、MIT学霸吴佳俊获奖
地址:http://www.ccqdqw.cn/cqyw/26665.html