原文链接源于 Semiconductor Engineering:https : //semiengineering.com/pushing-ai-into-the-mainstream/

将AI推向主流

为什么数据清理和社会问题会限制采用该技术的速度和实用性。

人工智能正在成为技术进步背后的推动力,尽管该行业只是摸索着可能的表面。

但是,人工智能如何渗透到不同的市场领域和技术中,以及如何迅速进入主流,取决于仍然需要解决的各种问题。除了大量技术问题之外,还需要在清理数据集,解决政治,法律和道德问题以及灌输对机器的信任方面取得进展。

这些挑战中没有一个是无法克服的,但是如果不应对这些挑战,则可能会延迟AI的应用,并延缓或阻止它充分发挥其潜力。

数据清理
AI应用程序从大型数据集开始。如果数据不好,则应用程序不好。数据可能包含偏见,可以使结果走向偏差的解决方案或不公平地对待某些情况。

“人工智能是关于数据的,而预测下一个结果是基于先前的模式或算法,” Arm机器学习小组负责特殊项目的副总裁Steve Roddy解释说 。“如果数据集中存在无意识的偏差,那么该偏差将继续成为模型的一部分,并将传播有偏差的结果。技术人员应承担道德责任,以监控他们创建的算法,以确保算法公平公正。”

偏差可以保持隐藏。Gyrfalcon Technology营销副总裁Marc Naddell指出:“中国有很多AI公司。您能想象出,当这些公司试图把他们的模型带到世界其他地方时,他们会创造出不同的数据集吗?它不仅涉及面部和身体方面,还涉及行为方面。”

许多公司都急于发布产品,以至于他们没有正确地检查数据集。“以医疗保健的AI应用程序为例,” Imagination Technologies视觉与AI高级业务开发总监Andrew Grant说,“这是一个潜力巨大的领域,但是任何AI项目中最多有80%可以查找,清理和准备数据,以便可以在AI系统中使用它。从某种意义上说,人工智能正被这些阻碍进步的障碍所阻碍。训练,减少错误和获得正确的数据可能是一个问题。尽管越来越多的纵向数据集以匿名形式提供,但这是一个示例,在此示例中,我们可能会看到数据即服务(data-as-a-service)或数据准备即服务(data prep-as-a-service)的市场,与人工智能更为熟悉的领域并驾齐驱。”

今天,我们已经开始意识到用于早期AI应用程序的数据集中包含多少偏差。Naddell补充说:“人工智能在不同领域中使用的越多,就会发现更快的问题(例如偏差),并且将出现避免这些问题的最佳实践。” “这是Wild West,许多用例正在首次尝试。您必须考虑需要收集样本数据的所有环境和所有场景,以确保数据的健壮性和全面性。”

从较小的数据集推断还面临其他挑战。在数据集通常较小的EDA应用程序中可以看到这一点。“我们经常在实验环境中很快看到ML [机器学习]的好处,在这种环境中,我们将范围限制为一小组芯片设计,手动选择和清除输入数据,手动调整ML算法以适应我们的需求,并且可能私下失败很多次才能为公众提供结果。” 西门子业务部门Mentor的工程总监Jeff Dyck说,“生产机器学习技术往往比预期花费更多的时间和精力。使机器学习方法普遍适用于广泛的芯片,工艺和设计流程,使其对生产可靠,并使设计人员易于使用,这需要一种自然力。意外的产品化工作是许多有前途的机器学习技术无法将其用于生产工具的原因。”

政治
AI也开始引起一些政治关注。

“有关AI的法律,政治和法规问题在政府中还没有得到妥善解决。” Allied Analytics的数字营销工程师Sharad Singh说,“这是AI的最大隐患。”

科技行业一直与政府干预关系不稳定,但人工智能为这一关系增添了一些新元素。一方面,人们对该技术的影响感到担忧,该技术被描绘为杀手机器人中的邪恶力量,对就业的威胁以及对自动驾驶汽车中人类生命的危害。另一方面,该技术也可以用来跟踪大量人员,并找出不利于政府的模式和行动。

Imagination的格兰特(Grant)说:“对AI抱有党派利益的政府对AI构成威胁。现在最棒的是,有一个全球社区,它拥有大量的知识共享,开放标准和开放源代码,使开发人员能够访问这些技术。政府试图控制局势、转移注意力的危险总是存在的。尽管存在夸张的说法,但是如果一种能够帮助我们解决当今世界上巨大问题的技术被颠覆到不适当的,自私的目的,那将是巨大的耻辱。”

颠覆可能以不同的方式发生。Allied Analytics的Singh说:“人工智能的兴起拉开了各国之间全球性自动武器竞赛的序幕,数据分析公司已使用支持AI的目标营销来影响最近2016年美国总统大选的结果。同时,中国实施了基于AI的面部识别来跟踪公民的行为,以确定他们的社会信用评分。必须执行有关使用AI的规则和条例,以减轻其对社会造成的风险。

“我们必须做好准备,” Achronix副总裁兼首席技术专家Raymond Nijssen说,“今天,这只是一列迎面而来的火车。在1970年代,在我的祖国,一位部长敦促对微处理器征收高额税款,因为它们会夺走蓝领工人的工作。这真是一件坏事。您想成为最为这些变化做好准备的社会。蓝领工人再次受到最大的威胁。人工智能带来的生产力提升将推动未来几十年的GDP增长。经济增长几乎完全由生产力的增长驱动。发生变化的速度令人担忧。从手动任务到自动任务的过渡过去需要数十年的时间,因此他们有机会在一代人的时间内适应。”

信任
但是人们可以信任尝试部署AI的公司吗?

格兰特说:“道德是一个值得关注的问题,尽管有很多好的工作正在进行,但真的是时候把这些公之于众了。否则,向流氓演员施加压力为时已晚。同样,需要有明确的信息使用指南,并确保不对不具代表性的数据进行训练。没有任何借口弄错这个地方。然而,即使是专业人士,也有尴尬的时刻,对社会各阶层显然是不公平的。我们需要对潜在的,甚至是意外的滥用和意想不到的后果保持警惕。我们需要确保发展中的障碍不会导致消费者的反感,以短视的方式封闭思想的渠道,从而导致过度监管和扼杀未来的新兴产业。”

信任通常来自理解。Cadence定制IC&PCB组研发部门高级主管Dave White说:“可解释的AI对于大规模决策系统是必需的,在该系统中,如何得出答案的问题对于其接受度至关重要。这包括基于观察决定行为(OODA)架构的系统,其中以优化为动力的AI将向人类提出建议,然后要求人类做出至关重要的最终决定并采取行动。OODA应用程序将需要可解释的AI,这是接受更多自治决策系统的第一步。”

这在一定程度上取决于谁拥有数据。

 Naddell警告说:“传统上,数据是由大公司收集的,由于黑客攻击和私有数据的泄漏落入不当之手,这可能会造成损害。我们认为,边缘化的AI为行业带来了一系列新的机遇,因为它解决了隐私问题,并改善了可能影响用户体验的延迟。另外,当您必须从边缘到网络再来回发送数据时,你可以根据尝试使用该系统的时间而有所变化。”

当他们根本无法连接时,我们愿意让AI做出决定吗?Achronix的Nijssen预测说:“因此会有灾难发生。某些时候,机器将被置于人类之上,从而使人无法超越或不知道如何超越机器,即使很明显机器行为是错误的。谁负责?是人还是机器?如果飞机变得完全自主,那么它将防止劫机,因为人类无法超越它。人们会说这是一件好事。但是,如果您问他们有关一台总体上压倒人类的机器的信息,您会得到很多回击。当机器更智能时,这似乎很可怕。人类无法容忍机器杀死人。”

技术挑战
与任何技术的可靠性一样,验证是至关重要的一步。但是在开发AI系统中进行验证还有很长的路要走。

Mentor的Dyck说:“我们需要极其强大的ML方法,该方法能够可靠地提供所需的准确性,并向设计人员揭示其准确性,并且是完全可验证的。”

Cadence’s White表示同意。“缺乏足够的验证方法会带来巨大威胁。随着AI对机器的影响,发展的步伐可能超过了确保稳定性和安全性所需的验证水平。我们看到在开发训练和推理方法的巨额投资。但是,在实际系统和环境中,对验证支持AI的系统的关注要小得多。对于在线营销应用程序或图像处理基准来说,这可能不是一个大问题,但随着我们将AI和深度学习集成到运输,制造或其他对安全至关重要的环境中,这一问题变得更加令人担忧。”

但是,验证对AI系统到底意味着什么?OneSpin Solutions技术市场经理Sergio Marchese说:“在映射应用程序之前和之后,需要对AI和ML应用程序的硬件平台进行两次验证。此外,这些芯片或多芯片模块的规模是巨大的,可能包括成千上万的模块和IP实例。即使是基本任务,例如验证顶层连接以确保IP和子系统的正确集成,也不仅在模拟中,而且在传统的正式连接检查应用程序中也变得棘手。”

创建优化的硬件也是一个挑战。 eSilicon市场营销副总裁Mike Gianfagna说:“从ASIC的角度来看,最大的挑战是AI算法正在不断变化。这一事实意味着,硬件加速通常是通过GPU或FPGA完成的,随着算法的发展,它们可以进行现场更新。但是,这种趋势有其局限性。与更通用和可编程的方法相比,以ASIC形式定制的AI加速器将始终提供卓越的功率,性能和总拥有成本。”

人们很容易忘乎所以,认为人工智能是解决所有问题的最佳技术。Fraunhofer EAS高级物理验证小组的成员Christoph Sohrmann警告说:“人工智能的应用,特别是在芯片设计方面,仍然存在一些尚未解决的问题。例如,如何将AI算法与已建立的基于规则的方法结合起来?真正需要的是符号和神经概念的融合。实际上,这是迄今为止人机交互的成功秘诀。”

新兴技术也可能会提出新的体系结构。“考虑将不同的内存技术集成到AI加速器中,” Gyrfalcon的Naddell说。“我们正在寻找MRAM而不是SRAM。这将新功能带到了可以打开新用例的边缘。因为它是非易失性的,这意味着在关闭电源后,它会立即使用该软件并对数据进行操作。它不必重新加载软件。对于您可能正在操作闸门或耦合到安全摄像机的许多物联网设备而言,这一点至关重要。对于这些而言,延迟是一个大问题,电源管理也很重要。”


图1.可能发生推理和学习的多个地方。资料来源:Rambus。

一些应用程序也可能依赖边缘学习。Esperanto Technologies公司计算机系统架构师Peter Glaskowsky指出:“人类的思维并没有像今天的机器学习模型那样在学习和推理之间强加区分。人类可以学习新面孔并在几分钟或几年后再次识别它们。通过持续学习(一种AI风格,它需要足够灵活的芯片来执行学习和推理),计算机可以成为“超级识别器”,能够学习普通客户的面孔,或者在抢劫之前多次访问商店的罪犯的面孔。”

Nijssen也认为这是一个问题。“训练和推理之间的严格分隔是现有技术局限性的产物。这种分离必须消失。这将带来进行计算的新方法,并且必须高效节能。学习必须是瞬时的和连续的。我们不能接受在这里进行训练并在其他地方进行推论的二分法。”

行业需要适应。“人工智能的增长将继续加速,对硬件和软件的需求将有所不同,”Arm的Roddy说。“尽管硬件追求性能和能源效率,但另一方面,应用程序开发人员希望使用开放源代码的通用软件框架来加速AI的部署。由于硬件和软件的相互联系,新技术总是很棘手:应用开发人员在市场上的大多数设备中都不会使用该功能,并且设备制造商不愿意投资尚未使用的软件功能。”

将AI提升到一个新水平
今天,AI消耗了太多功率。恩智浦 AI负责人Markus Levy说:“将其提升到一个新的水平需要解决的问题是使ML在资源需求和功耗上都达到最小。” ML的未来既在数据密集的云端,也在网络的边缘。数十亿台已连接的设备必须能够自主做出决策,而无需始终寻求“老大哥”云的帮助,并且一旦做出决策,他们还需要与其他设备共享已获得的知识。也就是说,集体数据带来智慧,集体智慧带来知识,所有人都共享。”

这可能需要改变。“我们如何才能摆脱困境,将各种工具交给开发人员?” Naddell问。“有很多开发人员非常擅长于开发软件应用程序或设计设备,但是AI对他们来说是陌生的。我们如何才能将工具交到他们手中,这样他们就不必花几年的时间学习如何在云中工作,而是可以创建他们的应用程序特别需要的模型?”

现在急需人力资源来实现这一切。Grant说:“我们需要启发下一代数据科学家,因为全球对各种类型的智能AI从业者的需求严重不足。也许我们可以使招聘民主化,减少性别不平衡,并从社会各阶层进行招聘。人工智能是一个引人入胜的机会,可以基于数据驱动的决策促进变革,这与许多后千年的模因融合在一起。我们生活在最激动人心的时代。让我们保持势头。”