随着人工智能改变内容创作和发行的各个方面,相关公司也必须应对源自于训练数据有限和数据偏差的诸多挑战,例如人工智能幻觉(AI hallucination)。
人工智能幻觉(AI hallucination)是指人工智能模型生成的内容不是基于现实世界的数据,而是模型自己想象的产物。这种现象通常发生在聊天机器人或大型语言模型(如ChatGPT)在回答问题时,加入不正确的信息,导致回答与现实世界的数据不一致,从而误导用户。人工智能幻觉又可以分为内在幻觉和外在幻觉两类:内在幻觉指AI生成的输出内容与输入内容不一致,例如回答用户所输入问题或对话上下文信息相矛盾;外在幻觉指AI生成的输出内容与现实世界不一致,或通过已有信息无法验证,例如在回答问题时提供错误的信息或编造无法验证的内容。
随着人工智能在各行各业的迅速普及,“hallucinate”一词又有了新的含义,并因此2023年被《剑桥词典》评为“年度词汇”。人工智能已成为企业生活中不可或缺的一部分,尤其是媒体和娱乐行业利用人工智能编配字幕和即时转录,辅以人脸和语音识别技术,不仅大幅缩减了工作用时,同时还具有成本效益。
但有时,用户会遇到由人工智能生成的虚假或误导性信息,这些错误信息在中东等地区的媒体使用中更为常见,因为目前拥有的人工智能模型主要依赖西方数据源和英语数据集。因此,人工智能模型中出现了一些偏差。这些被称为“人工智能幻觉”的误差已经成为中东地区媒体公司面临的一大挑战。在2024年四月期的《中东专业广播》杂志上,Moments Lab公司(注)联合创始人、技术总监弗雷德里克·皮特庞特对此问题做了适当的阐述。
人工智能正从内容创作到发行的各个环节重塑我们的世界,因此有必要更深入地了解“人工智能幻觉”。而要做到这一点,有必要了解即将到来的全美广播电视设备展(NAB Show)。在展会上,业内专家们将就人工智能的技术进步、机遇和挑战进行广泛讨论。展会上新设立的主论坛“人工智能在媒体和娱乐领域的应用”,届时将邀请一些知名市场权威人士共同探讨他们对于人工智能的应用,包括在生产和开发环节持续和认识人工智能应用的利与弊。
注:Moments Lab是一家专注于人工智能和视频搜索的公司,其前身是Newsbridge公司,致力于开发视频理解技术。该公司启动了一项人工智能研究计划,旨在利用低能耗模型开发多模态和生成式人工智能视频理解技术。重点包括长视频理解、视觉语言模型和信息检索,目标是建立公平且高效的索引模型,以适应多元文化世界多样化表现形式。
(本文作者维贾•雅谢里安,编译者系中华广播影视交流协会工作人员;来源:中东专业广播杂志网站4月2日文)
热门精选