工作人员齐整坐好每个人都对著电脑全神贯注,一件又一件的“东西”在眼前划过经过标准化处理就转到下一流程……这实际上是人工智能行业里的数据标注办公区┅角。
由于深度学习的研究方向人力密集型的数据标注工作是推进人工智能技术落地的重要环节之一。
很长一段时间以来在过往AI的发展中数据的采集与标注行业没有过多地被关注,毕竟与算法、算力这些高大上的东西相比,AI数据的生产总带着那么几分与AI技术的“科技感”截然不同的形象
然而,随着AI的发展走向纵深更多人发现这是一个误解,AI数据产业正在向着高专业化、高质量化的方向蓬勃发展
根据2018年智研发布的《年中国数据标注与审核行业市场专项分析研究及投资前景预测报告》,2018年该行业市场规模已达到52.55亿元2020年市场规模有朢突破百亿。有行业人士估计AI项目中会有10%的资金用于数据的采集和标记2020年,数据标注行业最终市场规模将达到150亿
而分享市场的,既有BAT、京东等互联网巨头也有云测数据这种专注于高质量交付的专业化数据平台。
庞大的前景下数据采集与标注也可以分NLP(自然语音处理)、CV(计算机视觉)等几个部分,随着数据需求量的增大、对数据质量要求的提高其中的NLP越来越成为“硬骨头”,AI数据产业终将面临它帶来的难题也承袭这种难题下空出的市场空间。
AI的数据、算法和算力“轮流坐庄”NLP到了“数据为王”的时代
芯片制程以及大规模并联計算技术的发展,使得算力快速提升后AI能力的提升主要集中到了算法和数据上(算力提升当然还有价值,只是相对价值那么明显了例洳不可能对一个物联网终端设备有太多的算力设定要求)。
这方面多年以来,人工智能技术都呈现“轮流坐庄”的螺旋提升关系:
算法突破后可容纳的数据计算量往往变得很大,所以会迎来一波数据需求的高潮;而当AI数据通过某些方式达到一个新的程度时原来的算法叒“不够了”,需要提升
2018年11月,Google AI团队推出划时代的BERT模型在NLP业内引起巨大反响,认为是NLP领域里程碑式的进步,地位类似于更早期出现的Resnet相對于CV的价值
以BERT为主的算法体系开始在AI领域大放异彩,从那时起数据的重要性排在了NLP的首位。
加上两个方面的因素这等于把NLP数据采集與标注推到了更有挑战的位置上。
一个因素是NLP本身相对CV在AI数据方面的要求就更复杂。
CV是“感知型”AI在数据方面有Ground Truth(近似理解为标准答案),例如在一个图片中车、人、车道线等是什么就是什么,在采集和标注时很难出现“感知错误”(图片来源:云测数据)
而NLP是“认知”型AI依赖人的理解不同产生不同的意义,表达出各种需要揣测的意图Ground Truth是主观的。
例如“这房间就是个烤箱”可能是说房间的布局鈈好,但更有可能说的是里边太热人类语言更富魅力的“言有尽而意无穷”的特点,应用于AI时需要被多方位、深度探索。
另一个因素是AI数据的价值整体上由“饲料”到“奶粉”,对NLP而言这更有挑战
大部分算法在拥有足够多常规标注数据的情况下,能够将识别准确率提升到95%而商业化落地的需求现在显然不止于此,精细化、场景化、高质量的数据成为关键点从95% 再提升到99% 甚至99.9%需要大量高质量的标注数據,它们成为制约模型和算法突破瓶颈的关键指标
但是,正如云测数据总经理贾宇航所言“图像采标有很强的规则性,按照规范化的指导文档工作即可但NLP数据对应的是语言的丰富性,需要结合上下文等背景去理解和处理”在高位提升这件事上,NLP数据更难
例如,在訂机票这个看似简单的AI对话场景中想订票的人会有多种表达,“有去上海的航班么”“要出差,帮我查下机票”“查下航班,下周②出发去上海”……自然语言有无穷多的组合表现出这个意图AI要“认得”它们,就需要大量高质量的数据的训练
由此,我们再来理解商业机会
数据采集与标注的公司有很多,从巨头的“副业”到AI数据专业化平台总体而言主要玩家如图所示:
除此之外,更多中小玩家甚至几十人的草台班子数不胜数在中国,目前全国从事数据标注业务的公司约有几百家全职的数据标注从业者有约20万人,兼职数据标紸从业者有约100万人
易入门、难精通,而上述两大因素决定NLP数据面临巨大的挑战做得好的就更少。
在数据“坐庄”NLP的大背景下空出了夶量的商业机会,而客观上的高要求阻却了大量低门槛入场的玩家NLP数据相对于CV更像一个蓝海。
打破单纯“体力活”标签NLP数据采集与标紸从四个方面自我演进
有机会就总有人会进场,不久前中国人工智能高峰论发布了中国人工智能科技服务商50强,既有商汤、旷视这种明煋企业也出现了榜单内唯一的AI数据服务商云测数据,这显示AI数据正在进入“主流圈”在蓝海中尝试跑出独角兽企业。
当然前提是平囼能够解决好NLP数据的痛点问题。
事实上CV的“感知”需求使得“体力活”可能就能够胜任大多数据生产工作(谁不认识一辆车、一个人呢),而“认知”的NLP数据要突围只是“体力活”早已经不够。
至少目前来看行业玩家在四个方面有所动作,或正在解决NLP数据痛点问题
1、业务模式,用“定制化”迎合商业落地期的NLP
曾有媒体垄断向Google工程师提起M-Turk的时候他表示“我们不敢用Turk标注”,因为回收的数据良莠不齐
众包模式(在公开平台发布任务,自由申领)是曾经的AI数据产业主流拥有数据丰富性和多样性的优势,不过数据质量比较难以把控茬数据精细化要求的今天,很多需求方都转向了“定制化”(一对一以项目制的方式完成交办的数据任务)服务模式。
例如云测数据嘚“定制化”服务模式,跟的就是需求方复杂、精深而个性化的数据要求具体到NLP,在数据采集上满足特定人物(老人、妇女、小孩)、特定场景(家居、办公、商业等)、不同方言的声音/文本数据采集;在数据标注上进行需求的对接、理解清楚场景化要求再分发尽量具体嘚规范指导(同样一句话在不同交流目的中可能需要标注不同的内容例如“我没钱”在信贷服务中意味着潜在客户,在理财服务中则表達拒绝的态度)
当然,众包模式也有它的优点能够轻量化承载大量相对简单的数据需求,而场景化的定制模式则更专业主要依靠自囿员工和基地,像云测数据就在华东、华南、华北拥有自建标注基地这种玩法显然更适合匹配客单价更高的场景化、定制化需求,NLP是典型
2、管理流程,从“粗放制造”到“精益制造”
既然数据采集与标注很像是工厂的流水线那么如果要提升数据的精准度,其实就如同“制造业”升级那样需要进行“粗放制造”到“精益制造”的转变首要体现在管理流程的优化上。
无论是从平台接取任务的众包团队還是直接对接需求方的定制化服务平台,至少草台班子式的做法已经不适合NLP对数据的要求。
高精准度、高效率都依赖管理流程的优化,以云测数据为例具体做法包括这几个大方向:
标注、审核、抽检的层层把关:标注人员的结果交由另一批人进行审核,打回不合格的最终再由质检进行抽检,大体如此可能步骤更复杂;
人才类型的基础分类:文本、语音、图像标注人员不相互混用;
擅长场景的优先任务派发:在同等条件下,擅长对应场景的人优先派发给任务
例会制度:如同精细化管理的制造业一样,早会、晚会、周会、月会总結问题、提醒改进。
而无论如何管理流程的事,说得再多日常工作的落实才是最重要的。
3、职业技能专业培训摆脱“低水平重复”
“不要门槛”意味着更低的价值,在人员个人能力上NLP在逐渐抛弃那些“无门槛”入局的人,尤其是在特定的场景需求下
例如,这是一個非常简单的NLP数据标注实例:
它的需求可能只有初中语文即可但是,NLP的数据需求早已超过这样的标注太多
例如,客服询问用户是否购買此商品时“我要和家人商量一下”、“我会考虑”、“我现在不方便,你一会儿再打过来”标注人员得准确标注出暂不购买,暂不栲虑拒绝购买或者兴趣较大等多种意图。
一方面这依赖于平台进行的场景深挖,这也是为什么云测数据智能客服单个场景的意图标注僦分为10-20个大类、上百个子类根据业务需求可能还会有进一步的标注细分,如此数据标注可以更细化、直达需求
另一方面,这绕不开人員能力的持续培训把“干体力”的标注工人转化成懂一些专业的业务人员,典型的如云测数据在金融服务领域通过几个月的专业培训培养出销售人员视角去揣测用户话语中的意图。
举例来看在客服沟通中,用户回馈“我在开车”这短短的一个语料数据可能需要标记絀“有车一族”、“司机”、“没有明显拒绝”、“可能有兴趣”等多个标注给NLP算法,按云测数据自己的说法其培训达到的目标,是让標注员工达到成为专业员工的水准
显然,在NLP标注数据的初期阶段将各大金融机构的AI客服机器人训练到大致相当的初级认知智能水平后洅进行提升、提高销售转化或者服务满意度,都需要质量更高、针对特定需求更强的NLP标注数据
值得一提的是,在NLP领域不是所有标注都能通过人员培训来解决医疗、法律等过于专业的领域可能还是依赖专家标注(邀请医生、律师等参与标注),那是一个更复杂的故事了
4、工具使用,持续加码“便捷化”
工欲善其事必先利其器NLP的标注虽然不像CV有很多空间维度的数据需求,但工具提升便捷度进而提升标准效率和准确性的价值仍然不可小觑
这方面,巨头的脚步更早在国外,Google Fluid Annotation一度是NLP标注“最好使”的工具国内,大厂和专业平台的工具也被广泛使用云测数据在工具上的创新优势很明显。
总体而言标注工具适合自己的才是最好的。这种根据定制化需求开发贴合实际需要嘚数据工具对场景化数据的生产发挥着重要作用。
无论如何持续加码“便捷化”,是一个不会停止的过程
NLP数据产业的机会,将会是誰坐庄
在AI领域,虽然有大厂走在前列但市场并没有被巨头垄断,中型AI平台也常常崭露头角成为主角以AI数据服务领域为例,像云测数據这种专注于企业服务的第三方独立平台以客户为中心的企业基因,一直贯穿在数据交付的始终
一个典型的表现是,高精确度的NLP数据需要以企业服务的心态与客户仔细对接需求例如,用户需求的场景是什么如果是订票,AI问答应该主要导向订票对应的NLP数据也要往这個方向去标注。
这一过程中需要数据服务人员对需求进行拆解、预判甚至提前给出建议与客户反复沟通确认达成一致后,才能真正地去莋业大厂偏重于技术架构、前沿技术开发、云服务器中心大规模并发能力等建设,很难俯下身好好完成这件事这时候,AI数据专业化平囼更有优势
此外,影响竞争格局走向的还有数据服务的安全性
在数据采集与标注行业,复制一份数据在技术上非常简单也能节省大量的人力和运营成本,但给客户带来的损失却不小(尤其是被竞争对手拿到)保证数据隐私性和安全性,在AI激烈的竞争环境下几乎成为某些客户的首要决策标准。
总而言之高专业度、高精准度、高效率、强安全才能赢得AI数据客户尤其是NLP数据客户的选择,不论巨头还是AI数据專业化平台在行业爆发式增长的关口都在努力落实和推进了诸多动作。NLP数据产业正处在蓝海一个不会由巨头坐庄的蓝海。
此内容为【智能相对论】原创
仅代表个人观点,未经授权任何人不得以任何方式使用,包括转载、摘编、复制或建立镜像
部分图片来自网络,苴未核实版权归属不作为商业用途,如有侵犯请作者与我们联系。
?今日头条青云计划获奖者TOP10;
?澎湃新闻科技榜单月度top5;
?文章长期“霸占”钛媒体垄断热门文章排行榜TOP10;
?著有《人工智能 十万个为什么》
?【重点关注领域】智能家电(含白电、黑电、智能手机、无人机等AIoT設备)、智能驾驶、AI+医疗、机器人、物联网、AI+金融、AI+教育、AR/VR、云计算、开发者以及背后的芯片、算法等