为了回答这个问题,国外有一个叫Christensen的科学家,在互联网上爬取了7192个AI创业公司的数据,总结出当前限制AI应用的几大原因。
这7192多家公司可以分为三类 第一类为部分使用到AI技术的公司(橙色) 第二类为提供AI基础设施的公司(红色) 第三类为把AI作为为核心技术的公司(蓝色)
总融资超过19亿美元,员工总数超过15万人。
人为限制
人工审核工作繁重。许多AI算法在执行之后也需要人为监督,比如Facebook就有超过15000人的审核团队,国内字节跳动等公司也有大规模的人工内容审核团队。
数据标注重人工。还是人工太高的问题,任何AI算法都需要大量数据集,因此AI公司们必须自建标注团队或将标注任务外包给数据标注公司,无论用哪种方式,都需要大量的“数据民工”付出繁重的劳动。
人才匮乏。AI专业人才的高身价,大家有目共睹,各个国家都面临人才短缺的状况。
数据限制
数据创建难题。对许多传统公司来说,他们不会自动生成AI模型训练需要的数据,比如线下零售就缺乏电商那样的详尽数据。
基础设施限制。许多企业对于云、数据安全的投入有限。
现有数据结构混乱。许多公司的数据都并未进行有条理、统一管理的存放,每个部门。每个团队都在各搞各的,格式、标签都不一样。
依赖第三方数据。有些公司自有数据不够,买第三方数据非常贵。
收集数据要很久。许多行业中,收集数据需要非常复杂的过程,比如慢性病的医疗数据。
市场限制
AI迫使许多行业改变商业模式。因为AI的存在,许多行业不得不改变现有商业模式,假设如果自动驾驶技术和法律法规成熟,车厂们可能就要转而直接提供运输服务了。同时AI应用会改变传统工作的流程
算法准确率要求高。AI算法的执行都是有准确率的,像人脸识别场景,美国政府测试的结果发现,黑人的识别错误率比白人高5到10倍,在医疗、自动驾驶方面,一旦出现不准确的情况,结果都是致命的。
AI可解释性是难题。当一个工具出炉,大众和监管机构通常需要能将其解释清楚,但AI算法的黑箱性则说不清。AI为什么不批准你的贷款?说不清,就会产生纠纷。
有偏见的AI。由于数据的偏差,AI算法经常做出有偏见、歧视性的决策。
AI的隐私威胁。由于AI算法训练需要大量数据,因此许多私人数据都被拿来投喂给AI,这让许多人面临个人隐私泄露的风险,因此也会受到监管和大众的阻力。