ChatGPT (Generative Pre-trained Transformer的缩写)是人工智能研究实验室Open AI在2022年11月发布的全新聊天机器人模型。此后,该平台在 5 天内获得了超过 100 万的用户,席卷整个互联网。ChatGPT基于人类编写的来自互联网的大量数据进行训练,通过使用强化学习和人类反馈,可以生成人类相似文本,进行翻译、总结和回答问题等。然而ChatGPT或任何大型语言模型都可能会对内容审核带来一些潜在挑战。ChatGPT 能够生成各种类型和基调的文本。虽然它有可能生成有用或信息丰富的内容,但它也可用于生成有害、误导或其他不当内容。如果未来品牌的广告出现在ChatGPT或其他人工智能生成的不准确或不适当的内容旁边,则可能会损害品牌的声誉和信誉,甚至会造成法律风险和收入损失。在数字营销领域,我们也称之为广告的品牌安全问题。在未来人工智能的时代,品牌安全所面临的挑战会有任何不同吗?
(资料图)
主要观察如下:
人工智能算法存在偏见和误导信息,所生产的内容提高了品牌安全风险
算法以训练数据为原料,从网络文字学习的大型语言模型或由于使用存在偏见的内容,从而产生偏见甚至误导和虚假信息。广告出现在不安全信息旁,对品牌造成负面影响。
和周边内容语义相关的广告有效提高广告记忆度,品牌喜爱度以及品牌推荐意向
无论广告主是否采用品牌安全解决方案,语义的效应及对广告的影响是真实存在的。语义相关的广告可提升30%-40%左右的广告细节和全局记忆。品牌喜爱度和推荐度也相应提高10%左右。
数字营销的发展和互联网的发展密切相关,语义识别技术也随之逐步演进,品牌安全风险在人工智能时代将依旧存在,甚至放大
互联网逐渐趋向web 3.0,以去中心化的用户为核心。AIGC技术加速了内容产生和分发的速度,同时进一步加大了品牌安全风险及识别难度。
人工智能是品牌安全的双刃剑,AI公司和中国政府都已采取措施监管和控制AIGC的安全和发展
人工智能的发展一方面加快了AIGC的发展和商业应用,但也增加了广告暴露在不安全环境的机率。内容审核方和广告验证公司也应相应利用和提高AI技术来提升内容判定的能力。OpenAI公司正在研究算法以识别AIGC,与此同时,中国在2023年1月正式实施《互联网信息服务深度合成管理规定》。
人工智能的偏见
尽管OpenAI试图限制chatGPT生成公然冒犯性或歧视性言论的可能性,但根据chatGPT官方平台的阐述,它仍然存在一些局限性,比如它还是可能偶尔会产生不正确的信息,并产生有害的指令或有偏见的内容。ChatGPT作为大型语言模型,它的基础是通过网络上的文字进行学习,在给定前一个词的情况下,预测一系列词中的下一个词, 可以说GPT的输出是机率分布,并且每次的输出结果都不同。而互联网上充斥着大量显露人性黑暗面和偏见的表达,而这些有害的信息也可能被AI所学习模仿,从而产生对社会和广告主的营销有负面作用的内容。大型语言模型的发展正在比人类的思考走的远远靠前,ChatGPT狂欢的背后,未来广告主或将面临更深度复杂的品牌安全风险。
定义品牌安全
国际自律组织Trustworthy Accountability Group(简称TAG)将“品牌安全”定义为数字广告供应链中的公司用来保护品牌免受与特定类型内容和/或相关投资回报损失相关的消费者意见负面影响的控制措施。品牌安全解决方案和报告则能够帮助品牌屏蔽不可接受或者不恰当的广告环境内容(人们普遍同意应该被屏蔽的内容)
品牌安全的价值- 语义相关的广告可提高广告回忆度
上下文匹配在广告体验中扮演什么角色,消费者的大脑如何反应?为了解答这个问题,美国数字广告验证公司Integral Ad Science 于 2021 年 9 月对语义相关的广告进行了一项生物识别研究。研究发现,当广告的信息能解决当前页面内容的问题时,这种信息匹配的广告会引发强烈的细节记忆反应——对比完全没有语义匹配时提高了36%的细节记忆(左图)。当广告和文章有相似的主题时,对比完全不匹配的文章则多提升了 40% 的全局记忆(右图)。
品牌安全的价值- 语义相关的广告显著提高品牌好感度和消费者购买意愿
为了探寻语义相关广告对注意力和营销成果的营销的影响。IAS 在 2022 年 5 月再次进行了研究。通过实验设计和调研发现,语义相关的广告对比不相关的广告,消费者对于测试品牌的喜爱度提升了5%,购买测试品牌的意向增加了14%,广告记忆度提升了4倍。
无论广告主或代理公司是否采用相关的品牌安全监测解决方案,我们需要认识到一个事实:语义的效应及对广告的影响是真实存在的。
互联网和品牌安全技术的演进
在考虑品牌安全问题时,我们必须考虑技术,尤其是互联网 Web 1.0 到 Web 3.0 的演变。以及随网络技术发展而导致的数字营销演进,以平台为主的经济逐步向去中心化的用户靠拢,内容加速产出和分发。
互联网第一代Web 1.0是用户只能读取信息的时代,网络新闻门户也蓬勃发展。新浪,腾讯,网易,搜狐等公司也在那个时代迅速崛起。
值得注意的是,在1994年,在HotWired的网站上,世界上第一个Banner广告诞生了,并且点击率达到了44%。它也彻底改变了品牌安全的生态和营销的方式。那个时代的语义品牌安全技术主要通过域名的列表屏蔽和对单个页面的文字分析。
进入Web2.0时代,用户可以自主创建互联网中的内容, 平台不仅给予用户读取权,同时也赋予了写入的权力,社交平台,短视频让人类的互动模式发生了再一次的里程碑变化。而用户生成内容作为 Web 2.0时代的产物很快诞生了。蓬勃发展的UGC内容和重视终端用户体验也大大增加了广告出现在不当内容旁边的机率,因为人们有更多的言论和创作自由。
在这个时代,品牌安全史上的一项重要发展是2011年程序化广告的兴起,它指的是使用算法和机器学习来自动化广告的买卖。程序化广告让品牌更容易定向特定受众,但从品牌安全的角度。也更难确保广告不会与不当内容出现在一起。在这段时期,上下文品牌安全技术更为丰富,比如竞价前不良类别的规避、站点和应用程序包含和排除列表、URL和关键字屏蔽、自定义品牌类别等。机器学习、神经网络等人工智能技术被广泛应用在不安全内容的识别、判定和屏蔽中。
品牌安全史上的重大灾难发生在2015年,当时宝洁和丰田等广告主的pre-roll前贴片广告被发现在极端组织“伊斯兰国”ISIS的相关视频前展示。广告主纷纷停止投放,引发了一场巨大的广告安全危机。
在中国方面自2016年以来,品牌安全的概念也随着BAV的推广(语义安全,广告可见度,无效流量)而逐步被广告主知晓,但总体应用度仍然偏低。根据中国广告验证公司的rtbAsia的测量,2021年不安全内容比例为6.6%,其中不安全内容中,比重最大的是个人网站,高达到71%,境外网站的比例为21%。
在安全内容的分类比例分析中,21%的广告投放在了娱乐类的内容环境中,占比最大,其次是家庭和教育等。
而在国际市场,根据国际广告验证公司DoubleVerify发布的2022年全球洞察报告中,它分析了全球市场2021年1月至12月间桌面和移动web、移动APP和智能电视端视频和横幅广告数据。61%的广告主采用了品牌安全监测和屏蔽的方案,自2019年不安全内容比例连续下降,2011年不安全内容比例为10%,比中国地区高了4个百分点。
然而需注意的是,中国的品牌安全监测的普及度远低于国际市场。互联网监管和媒体平台自身对内容的审核均有严格的要求以不触犯国家相关法规。但随着第三方cookie的逐渐消失,语义定向作为广告定向的替代方案,其重要性不言而喻。因此内容判定技术的价值在全球各市场均是值得被重视的。
随着Web 3.0时代逐渐到来,整个互联网将走向去中心化的消费者导向的经济。用户不仅仅有读写权,同时在增加了互联网的拥有和执行权。元宇宙,AR,VR,加密货币钱包,人工智能设备等概念不断引起各方业界的关注。而人工智能的发展也给广告领域带来了新的生机,比如元宇宙营销也成为数字广告领域新的香馍馍,数实融合的元宇宙迅速崛起也加速了AIGC复刻物理世界,无限创作。比如在广告创意素材的生产中就起到了低成本快速周期制作的作用。目前AIGC已经在多个领域被广泛的应用,如广告、文娱、电商等。目前由人工智能生成的数据占全部数据的1%不到。根据Gartner预测,到2025年,人工智能生成的数据将占比10%。
在人工智能更成熟的未来,品牌安全问题会有任何不同么?会有减少么?我们无法准确预判,但唯一我们知道的是:人类不会变的更缺少人类的特质。是什么让我们认为我们今天在社交媒体上看到的行为在元宇宙中会有所不同?它们很可能会被放大。比如在元宇宙的世界中,因为肤色问题,无法进入某个商店;欺凌和骚扰问题;VR游戏中的儿童保护问题。又或者AI机器人劝导人类自杀,这类法律问题又该如何定责?AIGC产生的错误信息误导人类等等。品牌安全的前提是用户安全,在未来将面临更严峻的挑战。
人工智能是品牌安全的双刃剑
目前主流的品牌安全监测技术得益于人工智能的发展,主要通过爬虫去爬取媒体提供的内容页URL信息,获取相关的文本图像内容,或者通过媒体提供的文字、图片等信息,通过语意、语境识别,神经网络等算法,进行分类处理,判断是否存在对广告主而言不安全的内容。但随着类似chatGPT等人工智能生产的内容越发流行,判断不安全内容的难度也大大增加。这对品牌安全技术的提升提出了要高的要求,相关公司需要适应并且找到新的方法有效地判定和标记这些AI工具产生的有害内容。人工智能是一把双刃剑,利用人工智能算法可以更好地识别AIGC的有害内容,可谓以其人之道还至其人之身。
人工智能公司自身需加强内容监管,据悉OpenAI目前正在开发一种工具,研究一种为人工智能生成的内容“加水印”的方法,以识别区分人类生成内容与AI生成内容。此工具用于“对文本 [AI 系统] 的输出进行统计水印”。每当系统(比如 ChatGPT)生成文本时,该工具就会嵌入一个“不易察觉的秘密信号”,指示文本的来源。用AI来识别AIGC,是对人工智能引发的道德问题的强有力回应。
同样地,广告验证公司也可借助AI的能力加强自身判定内容的技术和提高准确性,协助广告主共同打造安全投放环境。建议如下:
在多样化且具有代表性的数据集上训练机器学习算法,这可以提高内容判断的准确性。这将有助于算法更好地理解正在审查的内容的上下文和含义,并更好地区分安全内容和有害内容。考虑语言和文化的差异对语义的影响。使用人工审核:虽然自动化技术有助于识别潜在的有害内容,但让人工审查员审查标记内容仍然很重要。教育客户类似chatGPT这种AIGC的限制和潜在的品牌安全危害性。
中国对深度合成内容的监管
2022年,中国信通院发布的《人工智能生成内容白皮书》中提到,人工智能技术的发展,让AIGC可以以假乱真,对内容监管是极大的挑战,需逐步完善和保障AIGC相关法律法规。而为了加强中国境内应用深度合成技术提供信息服务的管理,《互联网信息服务深度合成管理规定》已经在2022年11月3日国家互联网信息办公室2022年第21次室务会议审议通过,并经工业和信息化部、公安部同意,自2023年1月10日起施行。
规定要求,深度合成服务提供者和使用者不得利用深度合成服务制作虚假新闻信息,采取技术和人工方式对内容进行审核,需落实安全主体责任,建立个人信息保护,反电信网络诈骗的管理制度等。品牌安全的前提是用户安全,此规定为AIGC指明了发展方向和安全规范,也从法律层面帮助了广告主最大程度地避免品牌安全风险。
目前人工智能相关法律初见格局,国家十四五重点发展人工智能相关产业,未来配套的法律法规可预见将进一步完善。
数据来源:
IAS,RTBAsia,DoubleVerify,Garnter,网络资料整理
来自: 群邑智库
关键词: