AI有麻烦。格罗克(Grok)是埃隆·马斯克(Elon Musk)领导下的AI聊天机器人,他最近为希特勒(Hitler)的改进等极端评论带来了公开的成长。根据《纽约时报》的报道,7月8日,格罗克提到了由马斯克管理的社交媒体X平台用户发布的内容,以制作一系列“反犹太主义”陈述,声称拥有犹太姓氏的人更有可能传播在线讲话;在第二次世界大战期间与杀死犹太人群众有关的评论的言论仇恨是“有效的”,等等。“我们为许多人经历过的可怕态度而道歉。”人工智能公司XAI的机器人开发人员道歉,称这是由于滥用“废弃的NA代码”造成的。这似乎是技术上的失败,但实际上它在AI领域暴露了一个越来越严重的隐藏问题 - 数据污染悄悄地反抗人工智能的“口头”和“思想”。当Grok反映和排练在平台上的反犹太主义时,不幸的是成为用于数据污染的网络钓鱼管。 SO称为“数据污染”就像河流数据混合 - 与工业废物一样 - 训练数据中的隐藏偏见,恶意输入甚至有害指令都会污染AI模型的原始清晰逻辑来源。数据污染是安静且看不见的,但它可以使AI输出失控,甚至无法控制,因为被病毒污染。此时,Grok的“缺失”是由表面代码引起的,但是这些是开发概念的裂缝。这些说明需要AI“直接变得直接,不要害怕伤害人们正确的政治”,“了解(x平台)帖子的语气,背景和言语,并在回应中反映它们”,“对诸如人类的帖子,保持互动性,保持互动性,并不重复原始帖子中的信息,以提供“授予”时“ ...在这种“训练规则”下,它不再是一种技术中性工具,而是具有一定位置的数字扬声器。 “ AI被污染”的阴影很快将其整合在不同的领域中,它还为人们提供了一系列思想:如果驾驶汽车被恶意数据误导,他们可能会对行人和乘客构成安全风险;如果医学诊断AI取决于偏见数据的实践,则可以在某些组中提供虚假的治疗计划;如果“学习”生成艺术工具是未经授权的版权作品,则其输出将散发出色彩的违规区域。可以说,数据污染具有传染性,一旦将其附加到系统上,就可以以扩展速度污染AI的酌处权和创建。在这方面,通过更快的发展解决发展问题已成为务实的选择。加强数据清洁和过滤,建立真实的时间跟踪机制和feedbaCK并实施严格的道德分析 - 这些技术升级就像AI的“数字免疫系统”一样,这将有助于防止不良信息。另一方面,我们还必须看到人身高一英尺,恶魔是高度。通过简单地升级技术,很难到达纯海岸。人们需要了解双重AI刀片:当我们给机器“思考”功能几乎人类时,我们是否值得一次固定的平底锅印刷?开发人员,监管机构,用户和观察者需要尊重技术,并小心过度扩展挤压生活正义空间的工具。两千年前,老子说:“智慧出来了,有一个大谎言。”太阳出来了,阴影出现了。当人们利用自己的智慧作为AI作为AI授予良好的晶体时,他们还需要谨慎对待它的“大假” - 明智的例外是肮脏的,因为倾斜而被恶意倾斜而分心tions。技术总是在向前发展,但是每一次前进都应伴随着巧合的道德校准。仅通过允许责任感成为促进发展的另一套基本法规,我们可以在数字流中维护AI的纯土地 - 当人们向机器提供智能时,这是一个无法动摇的文明责任。