闲鱼是怎么让二手属性抽取准确率达到95%+的?

本文涉及的产品
NLP自然语言处理_基础版,每接口每天50万次
NLP 自学习平台,3个模型定制额度 1个月
NLP自然语言处理_高级版,每接口累计50万次
简介: 让算法“读”懂二手商品

作者:闲鱼技术——渐漓

先上效果

个护.gif

图1 - 二手属性抽取算法效果Demo(1)

背景

闲鱼作为一款C2X的app,站在商品发布的角度,闲鱼商品相对于淘宝商品的特点有:

  1. 轻发布导致商品信息不足
    • 闲鱼采用图文描述的轻发布模式,迎合了用户快速发布的体验,但也导致了商品结构化信息不足的问题。如果平台希望更理解商品到底是什么,就需要算法去识别用户描述的图片和文本。
  2. 商品具有独特的二手属性
    • 不同于淘宝新品的一手属性(例如品牌、型号、规格参数等),二手属性指的是在商品入手一段时间后,能够反映商品折损/保值情况的属性,比如商品的【使用次数】、【购买渠道】、【包装/配件是否完整】等。
    • 不同类目有该类目独特的二手属性,比如个护美妆有【保质期】,手机有【屏幕外观】、【拆修情况】,服装类有【是否下过水】等。

问题和难点

二手属性抽取在NLP领域属于信息抽取(Information Extraction)问题,通常的做法是拆解为命名实体识别(NER)任务和文本分类(Text Classification)任务。

二手属性抽取任务的难点有:

  1. 不同的类目、不同的二手属性/属性簇,需要构建不同的模型。
  2. 如果使用有监督学习(Bert家族),打标工作会非常的繁重,开发周期会变得很长。

解决方案

方法论

在当今NLP环境,依旧是Bert家族(或Transformer衍生的各种算法)大行其道,霸榜GLUE、CLUE等各大NLP榜单,信息抽取任务也不例外,所以笔者在本方案中的某些场景也使用了Bert家族。不过笔者认为,没有一种算法在各种场景下都是全能的,只有在给定领域、指定场景下最适用的算法。此外,笔者总结了自己的一套属性抽取的方法论:

  1. 句式相对固定,或者句式受模板限制,如文本描述模板是典型的时间+地点+人物+事件(某事某地某人做了啥事),用NER,建议方法:CRF、BiLSTM+CRF、Bert家族、Bert家族+CRF等。
  2. 句式不固定,但领域/场景关键词相对固定,或者有一些关键词模板、俗称、行话等,用文本分类:
    1. 近义词、近义表述不是特别多的情况(≤几十种到上百种),关键词呈对数正态分布/指数分布(即有很多高频且集中的关键词),建议方法:正则表达式+规则。
    2. 近义词、近义表述非常多的情况(≥几百种到上千种),典型的如地名识别,建议方法:用Bert家族
  3. 句式和词语都不固定,典型的如社交评论/聊天的情感分析,建议方法:用Bert家族。

方案架构

架构.png

图2 - 二手属性抽取方案架构图
## NLP任务 如前所述,将不同的二手属性识别需求拆解为文本多分类、多标签分类以及NER任务。
- **文本多分类**:即“n选1”问题,比如根据文本判断商品是否包邮(二分类)。
- **多标签分类**:即同时进行多个“n选1”问题,比如同时判断某手机商品的屏幕外观(好/中/差)和机身外观(好/中/差)。多标签分类通常的做法是对不同标签共享网络层,并将损失函数以一定权重叠加,由于多个标签之间有一定程度的联系,效果有时候会比做多个单独的“n选1”问题更好,同时由于是多个属性(属性簇)一起建模,在训练和推断的时候也会更省事。
- **NER**:即命名实体识别。
## 建模方法 #### 1. 人工打标阶段 由于打标的人工成本比较高,需要设法利用集团的AliNLP进行辅助。方法是,首先利用AliNLP的电商NER模型对输入文本进行解析。然后进行拆解,对属于NER任务的二手属性,如保质期/保修期/容量/使用次数/服装风格等,可以直接定位到相关词性或实体的关键词进行BIO标注;对属于分类任务的其它二手属性,则可以在电商NER的分词结果基础上打标,提高人工标注的效率。 #### #### 2. 算法训练阶段 此为方案核心,本方案训练算法主要通过3种途径: **(1)使用Albert-Tiny**:建模采用主流对预训练+finetune的方案。由于该模型推断速度更快,用于对QPS和响应要求非常高的实时在线场景。对于NER任务也可以尝试在网络最后面接一层CRF或不接。 **Albert**:Albert意指“A lite bert”,名副其实,它的优点在训练速度快。
Albert的源码相比Bert的源码基本如出一辙,但网络结构有几点重要的区别: 1. Word Embedding层做了因式分解,在词向量上大大减少了参数量。设词表大小为V,词向量长度为H,对Bert,词向量参数量为V*H;对Albert,先把词向长度量缩减为E,再扩充为H,参数量为V*E+E*H,由于E远小于H,H远小于V,用于训练的参数量得到锐减。 1. 跨层参数共享:以albert-base为例,albert会在12层之间共享每层的attention参数或全连接层ffn的参数,默认是两者都共享。源码中通过tenorflow.variable_scope的reuse参数可以轻松实现。参数共享进一步减少了需要训练的参数量。 除此之外,Albert还有一些训练任务和训练细节上的优化,此处按下不表。
Albert依据网络深度不同分为: - Albert-Large/xLarge/xxLarge:24层 - Albert-Base:12层 - Albert-Small:6层 - Albert-Tiny:4层 一般来说,层数越多,训练和推断耗时都会越久。考虑到线上部署的实时性要求更快的推断速度,本方案选择了最小的Albert-Tiny。其中文推断速度相对bert-base提高约10倍,且精度基本保留(数据引用自[github/albert_zh](https://github.com/brightmart/albert_zh))。

**(2)使用StrutBert-Base**:建模采用主流对预训练+finetune的方案。经测算,在二手属性识别上,它比Albert-Tiny准确率相对提升约1%到1.5%,可用于离线T+1场景。对于NER任务也可以尝试在网络最后面接一层CRF或不接。 **StructBert**:为阿里自研算法,优点在精度高,[GLUE榜单](https://gluebenchmark.com/leaderboard)上已经排到第3名。
StrutBert论文相比Bert的主要优化点在预训练任务的两个目标上,如图3所示:
![structbert1.png](https://img.alicdn.com/imgextra/i4/O1CN01cAXdai1WC0ETJYwfS_!!6000000002751-2-tps-1400-495.png)
图3 - StrutBert的预训练任务目标(引用自StrutBert论文)
  1. Word Structural Objective:StrutBert在Bert的MLM任务基础上,加上了打乱词序并迫使其重构正确词序的任务:论文中是随机抽取一个三元词组(trigram)进行打乱,然后加上了如下公式作为MLM损失函数的约束。StrutBert的这个灵感也许来自于网上的一个段子:“研表究明,汉字序顺并不定一影阅响读,事证实明了当你看这完句话之后才发字现都乱是的”。

structbert2.png

图4 - Word Structural 的目标函数(引用自StrutBert论文)
  1. Sentence Structural Objective:与Bert的NSP任务不同,对一组句子对(A,B),它不是预测B是否A的下一句(二分类),而是去预测B是A的下一句、上一句还是随机抽取的(三分类)。对于(A,B)这样的句子对,它在训练集中让这三种情况出现的频率各为1/3。

本方案之所以选择StrutBert,是因为集团内有该算法在电商领域专属的预训练模型(接口),它依据网络深度不同分为:

  • StrutBert-Base:12层
  • StrutBert-Lite:6层
  • StrutBert-Tiny:4层

在离线T+1场景下,追求精度更高而对实时性无太大要求,因此本方案选择了StrutBert-Base。


(3)使用正则表达式:优点:速度最快,比Albert-Tiny还快10-100倍以上;且在许多句式和关键词相对固定的二手属性上,准确率比上面两种算法更高;且易于维护。缺点:非常依赖业务知识、行业经验和数据分析对大量正则模式进行梳理。


3. 规则修正阶段

  1. 识别结果归一化:对于NER任务,许多识别出来的结果不能直接使用,需要做“归一化”,例如某件男装衣服的尺码识别出来为“175/88A”,那么应该自动映射到“L码”。
  2. 某些二手属性之间可能会存在冲突或依赖,因此在算法识别之后,需要对识别结果依据业务规则进行一定修正。比如某商品卖家声称是“全新”,但是同时又表明“仅用过3次”,那么“全新”会自动降级为“非全新”(99新或95新,不同类目分级略有不同)。

算法部署

  • 离线T+1场景:通过ODPS(现名MaxCompute)+UDF的方式进行部署,即算法会通过Python写成UDF脚本,模型文件则作为资源上传到ODPS上。
  • 在线实时场景:模型通过PAI-EAS进行分布式部署,数据交互通过iGraph(一种实时图数据库)和TPP完成。

算法评估

对每个类目的每个二手属性,制定好评测的标准,然后抽样一定量级的数据,交由外包进行人工评估。评估工作通过对比人工识别的结果和算法识别的结果是否一致,给出准确率、精确率、召回率等。

最终效果

准确率

本方案识别结果经过人工评估,每个类目无论是准确率、精召率都达到了非常高的水平,且误差值均远小于上线限制,并已经上线应用在闲鱼主要类目的商品上。

效果展示

手机.gif

图5 - 二手属性抽取算法效果Demo(2)

应用场景&后续展望

二手属性抽取的结果目前已应用的场景包括:

  1. 定价场景
  2. 聊天场景
  3. 优质商品池挖掘
  4. 搜索导购
  5. 个性化商品推荐

后续展望:

  1. 目前二手属性抽取总共覆盖闲鱼主流类目商品,随着开发进行,后续计划覆盖到全部类目。
  2. 目前二手属性抽取主要依赖于文本识别,闲鱼商品是图文描述,后续可以考虑在图片上下功夫,通过图像算法完善商品的结构化信息。
  3. 利用和分析商品二手属性,形成优质商品标准,扩充优质商品池。


参考

Albert论文:https://arxiv.org/abs/1909.11942
StructBert论文:https://arxiv.org/abs/1908.04577
Albert_zh源码:https://github.com/brightmart/albert_zh
GLUE排行榜:https://gluebenchmark.com/leaderboard






相关文章
|
8月前
|
机器学习/深度学习 存储 人工智能
AI实践:智能工单系统的技术逻辑与应用
智能工单系统是企业服务管理的核心工具,通过多渠道接入、自然语言处理等技术,实现工单自动生成、分类和分配。它优化了客户服务流程,提高了效率与透明度,减少了运营成本,提升了客户满意度。系统还依托知识库和机器学习,持续改进处理策略,助力企业在竞争中脱颖而出。
778 5
|
弹性计算 固态存储 大数据
阿里云服务99元一年,多配置价格表,太炸裂了
阿里云服务器2024年最新租用价格:轻量应用服务器2核2G3M带宽年费82元,折合每月6.8元;2核4G4M带宽年费298元。新老用户共享99元一年的2核2G3M带宽ECS服务器优惠,及199元一年的2核4G5M带宽企业级ECS u1实例。游戏服务器方面,4核16G10M带宽70元/月,8核32G10M带宽160元/月。此外,还有GPU服务器等多种配置供选择。具体价格和配置请参考阿里云官方页面。
1711 107
|
11月前
|
设计模式 负载均衡 Kubernetes
解密微服务架构:从理论到实践
在这篇文章中,我们将深入探讨微服务架构的核心概念,并通过一个实际案例来展示如何在现实世界中构建和部署一个微服务系统。文章将从微服务的定义开始,逐步介绍其优势、挑战、设计模式、以及如何使用现代技术栈来实现微服务架构。
|
监控 Oracle 数据可视化
深度解析JVM性能监控工具:推荐与详细用法
深度解析JVM性能监控工具:推荐与详细用法
1518 0
|
Kubernetes 应用服务中间件 API
docker-desktop启动k8s
docker-desktop启动k8s
166 0
|
数据采集 人工智能 计算机视觉
CLIP的升级版Alpha-CLIP:区域感知创新与精细控制
为了增强CLIP在图像理解和编辑方面的能力,上海交通大学、复旦大学、香港中文大学、上海人工智能实验室、澳门大学以及MThreads Inc.等知名机构共同合作推出了Alpha-CLIP。这一创新性的突破旨在克服CLIP的局限性,通过赋予其识别特定区域(由点、笔画或掩码定义)的能力。Alpha-CLIP不仅保留了CLIP的视觉识别能力,而且实现了对图像内容强调的精确控制,使其在各种下游任务中表现出色。
482 1
|
SQL 分布式计算 资源调度
hive-3.1.2安装以及使用tez作为执行引擎指南
本文介绍hive-3.1.2安装以及使用tez作为执行引擎指南
hive-3.1.2安装以及使用tez作为执行引擎指南
|
关系型数据库 MySQL 数据库
【mysql】当前读和快照读,幻读和可重复读
【mysql】当前读和快照读,幻读和可重复读
747 0
|
XML 缓存 Oracle
「微服务架构」API版本控制最佳实践介绍
「微服务架构」API版本控制最佳实践介绍