AI公开课:19.04.03周明—MSRA副院长《NLP的进步如何改变搜索的体验》课堂笔记以及个人感悟

本文涉及的产品
NLP 自学习平台,3个模型定制额度 1个月
NLP自然语言处理_高级版,每接口累计50万次
NLP自然语言处理_基础版,每接口每天50万次
简介: AI公开课:19.04.03周明—MSRA副院长《NLP的进步如何改变搜索的体验》课堂笔记以及个人感悟

周明博士,1999年加入微软研究院(MSRA)。现任微软亚洲研究院副院长。他现任国际计算语言学会(ACL)会长,中国计算机学会理事、中文信息技术专委会(即NLP专委会)主任、中国中文信息学会常务理事。他带领团队进行了微软输入法、英库词典(必应词典)、中英翻译、微软中国文化系列(微软对联、微软字谜、微软绝句)等重要产品和项目的研发,并对微软Office、必应搜索、Windows等产品中的自然语言技术做出了重要贡献。近年来,周明博士领导研究团队与微软产品组合作开发了微软小冰(中国)、Rinna(日本)、Zo(美国)等聊天机器人系统。

      周明博士发表了120余篇重要会议和期刊论文(包括50篇以上的ACL文章),拥有国际发明专利40余项。他多年来通过微软与中国和亚太地区的高校合作计划,包括微软-高校联合实验室、微软实习生计划、微软-高校联合培养博士生计划、青年教师铸星培养计划,与高校和学术组织联合举办暑期学校和学术会议等多种形式,对推动自然语言处理在中国和亚太的卓越发展做出了杰出贡献。



问答环节


雷鸣教授:关于多轮语义分析器的看法。多轮还是限制场景,可以理解为算力或者某种不足。

周明教授:上下文信息如何关联,一定要考虑场景,通过场景定义状态,然后进行推理。

雷鸣教授:算力推动的发展,科研要跟着算力走,算力与自然语言的关系,未来的发展,是否会因为算力而提高?

周明教授:算力当然永远是重要的,有些问题,本身没有太多的训练语料,单凭算力是没办法的,可以通过人类的知识库,加以改进。人类模型如何建,如何融入到模型中。关于多轮,是出现动态的变化,无法提前通过输入输出得出,还需要常识、知识库的融入。基于数据驱动的,可以把模型建好。基于知识或者推理,背后还需要算力的。但是整个理论体系还没有起来,如果理论建好,那时候或许还是要看算力。

雷鸣教授:深度学习和知识图谱如何融合?语言其实是更大范围的表征。

周明教授:背后的技术可以用深度学习来做,可以把知识图谱也做词嵌入,与词的嵌入类似。但我不认为,该方向不太会有大的突破。第一,怎么来把知识图谱完备好;第二,假设知识图谱完备的情况下,如何去做推理。

雷鸣教授:动态理解,比如对视频的理解,单句或者一帧图片已经可以了。但是多轮的情况下,比如多轮对话,未来的发展,计算机视觉和自然语言处理的关系?

周明教授:未来人与机器的交互就是多模态的,现在的研究都是单模态的。现在,这是个特别诱人的方向,但是困境是缺乏相应的数据集。建议做语言与图像的双模态的数据集,以后可以做更大的数据集,来慢慢推动这个领域。基于数据集的驱动。

雷鸣教授:谈一下那些领域会有比较好的进展,在落地或者终端用户,适合学生创业的方向

周明教授:比如多模态的问答,先从单模态做起,先不加推理,以后再一步一步加上推理。关于哪些应用,具体的有,比如文本生成,把一首诗生成出来,但是不太符合逻辑,所以要结合逻辑生成诗句,会对人类的文档生成巨大的影响。再比如翻译、信息抽取,会对某个垂直领域,财经、医疗等。不一定会产生100%好,其实60%也可以产生很多效益。

雷鸣教授:NLP最近在挑战图灵测试吗?目前有多大进展。算力的重要性。

周明教授:真正的人工智能,凭图灵测试,其实并不能代表。大家要尊重算力,它体现了解码能力、信息抽取能力。人类建模的能力,常识知识推理。算力要有的话当然要有,还是要强化建模能力,去潜心做研究。

雷鸣教授:量变到质变,基于词法语法、基于概率统计(算力开始体现)、基于深度学习(更强的算力),算力的提升会对算法有更好的体现,但是并不是要以算力为王,根据算力的基础,做出更好的模型。

雷鸣教授:如何理解非自然语言,比如写代码,计算数学公式

周明教授:…………,常识结合推理,认知。

雷鸣教授:同声传译是否会被替代?

周明教授:长期来看,很多场合会被替代,但短期来看,其实还有很长的路要走。比如碰到的背景噪声、专业术语、容错度低(场合严谨)等技术难点,可以探讨人机结合,但是实用上目前不太好,作为技术人员,当然希望越来愈好!


个评:NLP结合CV,在未来,会有意想不到的突破点!

备注:以上对话环节的文本编辑,为博主总结,与原文稍微有异,请以原文录音为准,欢迎网友留言探讨。


相关文章
|
1月前
|
人工智能 自然语言处理
【NLP自然语言处理】NLP中的常用预训练AI模型
【NLP自然语言处理】NLP中的常用预训练AI模型
|
2月前
|
机器学习/深度学习 人工智能 PyTorch
AI计算机视觉笔记三十二:LPRNet车牌识别
LPRNet是一种基于Pytorch的高性能、轻量级车牌识别框架,适用于中国及其他国家的车牌识别。该网络无需对字符进行预分割,采用端到端的轻量化设计,结合了squeezenet和inception的思想。其创新点在于去除了RNN,仅使用CNN与CTC Loss,并通过特定的卷积模块提取上下文信息。环境配置包括使用CPU开发板和Autodl训练环境。训练和测试过程需搭建虚拟环境并安装相关依赖,执行训练和测试脚本时可能遇到若干错误,需相应调整代码以确保正确运行。使用官方模型可获得较高的识别准确率,自行训练时建议增加训练轮数以提升效果。
|
2月前
|
人工智能 开发工具 计算机视觉
AI计算机视觉笔记三十:yolov8_obb旋转框训练
本文介绍了如何使用AUTODL环境搭建YOLOv8-obb的训练流程。首先创建虚拟环境并激活,然后通过指定清华源安装ultralytics库。接着下载YOLOv8源码,并使用指定命令开始训练,过程中可能会下载yolov8n.pt文件。训练完成后,可使用相应命令进行预测测试。
|
2月前
|
人工智能 并行计算 测试技术
AI计算机视觉笔记三十一:基于UNetMultiLane的多车道线等识别
该项目基于开源数据集 VIL100 实现了 UNetMultiLane,用于多车道线及车道线类型的识别。数据集中标注了六个车道的车道线及其类型。项目详细记录了从环境搭建到模型训练与测试的全过程,并提供了在 CPU 上进行训练和 ONNX 转换的代码示例。训练过程约需 4 小时完成 50 个 epoch。此外,还实现了视频检测功能,可在视频中实时识别车道线及其类型。
|
1月前
|
机器学习/深度学习 人工智能 自然语言处理
AI技术在自然语言处理中的应用与挑战
【10月更文挑战第3天】本文将探讨AI技术在自然语言处理(NLP)领域的应用及其面临的挑战。我们将分析NLP的基本原理,介绍AI技术如何推动NLP的发展,并讨论当前的挑战和未来的趋势。通过本文,读者将了解AI技术在NLP中的重要性,以及如何利用这些技术解决实际问题。
|
2月前
|
机器学习/深度学习 数据采集 自然语言处理
深度学习在自然语言处理中的应用与挑战
本文探讨了深度学习技术在自然语言处理(NLP)领域的应用,包括机器翻译、情感分析和文本生成等方面。同时,讨论了数据质量、模型复杂性和伦理问题等挑战,并提出了未来的研究方向和解决方案。通过综合分析,本文旨在为NLP领域的研究人员和从业者提供有价值的参考。
|
1月前
|
自然语言处理 算法 Python
自然语言处理(NLP)在文本分析中的应用:从「被动收集」到「主动分析」
【10月更文挑战第9天】自然语言处理(NLP)在文本分析中的应用:从「被动收集」到「主动分析」
49 4
|
1月前
|
机器学习/深度学习 人工智能 自然语言处理
探索AI在自然语言处理中的创新应用
【10月更文挑战第7天】本文将深入探讨人工智能在自然语言处理领域的最新进展,揭示AI技术如何改变我们与机器的互动方式,并展示通过实际代码示例实现的具体应用。
39 1
|
2月前
|
机器学习/深度学习 人工智能 自然语言处理
AI技术在自然语言处理中的应用
【9月更文挑战第17天】本文主要介绍了AI技术在自然语言处理(NLP)领域的应用,包括文本分类、情感分析、机器翻译和语音识别等方面。通过实例展示了AI技术如何帮助解决NLP中的挑战性问题,并讨论了未来发展趋势。
|
12天前
|
机器学习/深度学习 自然语言处理 监控
探索深度学习在自然语言处理中的应用与挑战
本文深入分析了深度学习技术在自然语言处理(NLP)领域的应用,并探讨了当前面临的主要挑战。通过案例研究,展示了如何利用神经网络模型解决文本分类、情感分析、机器翻译等任务。同时,文章也指出了数据稀疏性、模型泛化能力以及计算资源消耗等问题,并对未来的发展趋势进行了展望。
下一篇
无影云桌面