数字鸿沟、科技伦理问题待解,互联网行业如何践行AI向善?

南方都市报APP • 政商数据
原创2024-12-19 10:44

【编者按】

可持续发展的理念不仅影响着消费者的行为习惯,也在重塑企业的生产流程。近两年,越来越多的企业加入到低碳转型的浪潮中,如公布减碳目标、启动碳足迹核查、探索绿色技术应用、采购环保原材料、鼓励重复利用包装、落地零碳工厂、推出零碳餐厅/“碳中和”商场……

基于对消费行业的长期观察和跟踪报道,南方都市报政商数据新闻部推出《2024可持续创新趋势洞察报告》尝试梳理出不同行业的参与者在ESG布局和可持续发展方面的创新举措及其面临的挑战,共分为美妆、时尚、餐饮、酒店、游戏、互联网六个篇章。本期聚焦互联网。

图片

2024可持续创新趋势洞察报告之互联网篇

AI已成为当下互联网大厂竞争的主旋律。过去一年多,互联网大厂在AI赛道的竞争已经进入了全面爆发阶段,呈现出资本密集、人才争夺和技术竞赛的多维激烈对抗。互联网大厂在可持续发展上也因为AI做出了不同的布局。

南都研究员梳理腾讯、阿里巴巴、百度、网易、京东、小红书等多家互联网大厂的最新ESG报告及公开信息发现,在AI发展元年,能源消耗、价值对齐、数字鸿沟等问题仍对行业发展、人类生活带来一定的挑战,同时针对这些方面,互联网大厂也通过建立绿色数据中心来应对AI能耗,内部成立监管部门、内部出台相关制度来提前介入预防AI伦理问题,以及通过AI能力或AI产品的开放惠普社会来缩小数字鸿沟。

尽管互联网企业、相关平台与监管机构已做出相应举措来规范AI发展,但目前AI伦理问题、AI生成内容仍需企业、监管机构与社会共同进行进一步的规范和解决,共同探讨AI向善的议题。

根据过往报道和采访调研,课题组梳理出AI技术对经济社会的积极影响及负面风险的关键词如下:

图片

2AI技术的积极影响(上)和负面风险(下)。由AI辅助生成

  

挑战

能源消耗、价值对齐、数字鸿沟

人工智能正以其巨大的影响力,对经济、社会以及几乎所有领域产生深远而广泛的影响,各大互联网巨头也加入了这场军备竞赛。梳理公开报道和相关舆情,南都研究员关注到,来自AI能耗、数字鸿沟和人工智能伦理方面的问题,越来越引起行业的关注和重视。

在人工智能飞速发展的背后,能源消耗问题也日益凸显,成为业内关注的焦点。此前特斯拉首席执行官马斯克曾提到,“下一个短缺的将是电力。我认为明年将没有足够的电力来运行所有的芯片。”此外,OpenAI首席执行官山姆·奥特曼也曾表示,人工智能将消耗比人们预期更多的电力,未来的发展需要能源突破。

算力即以数据中心、智算中心为代表的算力基础设施,AI飞速发展到底怎样需要调动多少算力?以GPT-3的训练为例,根据公开报道,GPT-3有1750亿个参数,据估计,训练过程使用了大约1287兆瓦时(也就是128.7万度)的电力。这相当于美国约121个家庭一整年的用电量。

除了模型训练时期,算力还会在模型推理阶段消耗。国际能源署(IEA)在今年1月的一份报告中曾表示,ChatGPT响应一个请求平均耗电2.9瓦时,这相当于将一个60瓦的灯泡点亮略少于三分钟。另外,据报道,ChatGPT每天响应约2亿个需求,消耗超过50万度电力,相当于1.7万个美国家庭平均一天的用电量。

除了算力消耗方面的问题,AI伦理方面的问题也挑战着行业。随着以 ChatGPT、Sora等大模型为代表的新一代生成式人工智能技术取得突破性发展,颠覆性技术的广泛应用正牵引人类社会发生深刻变化。可以看到,人工智能技术的应用在给人们带来工作和生活便利的同时,也不断暴露出一些风险隐患,带来诸如隐私泄露、偏见歧视、算法滥用、安全问题等等,引发了社会各界广泛关注。

今年8月,有网友发布视频称,其女儿在一款360儿童电话手表的语音问答功能提问,智能回答出现不当言论。如何让大模型的能力和行为跟人类的价值、真实意图和伦理原则相一致,确保人类与人工智能协作过程中的安全与信任,被称为“AI的价值对齐”。在对齐问题上,知名经济学者、工信部信息通信经济专家委员会委员盘和林提出,AI要完全对齐价值观不太可能,因为这个世界三观是多元化的。人类自己都无法对齐,很难要求AI去对齐。只能说尽力引导AI做出得体的回应。

此外,人工智能的迅猛发展在推动社会进步的同时,也不可避免地带来了数字鸿沟问题。这一鸿沟不仅体现在技术接入层面,即一部分人能够接触到先进的AI技术和服务,而另一部分人则被排除在外,而且随着技术的发展,这种差距有可能会进一步扩大。

AI技术的应用需要高级的技能和专业知识,这对于技术资源有限的地区和人群来说,无疑加大了数字鸿沟。在全球范围内,发达国家和发展中国家之间、城市和农村之间、不同社会经济群体之间的数字鸿沟正在形成,这不仅与科技创新普惠人类的初心背道而驰,而且可能带来更多不稳定因素。


应对

AI普惠、绿色数据中心、负责任AI

南都研究员梳理各大互联网ESG报告发现,互联网为应对越来越大的数字鸿沟、算力资源消耗和人工智能伦理问题带来的隐忧,选择以AI技术惠普社会、建立绿色数据中心和构建“负责任的人工智能”体系来解决上述问题。


实践1: AI普惠社会缩小数字鸿沟

对于普惠,各大互联网厂商选择的方式有所不同。一些大厂选择将AI能力开放给企业伙伴,一些大厂则将AI结合产品开发来进行普惠。

2024年,生成式人工智能被认为是确定性的时代机遇,但高昂的大模型研发和使用成本是大多数企业,尤其是中小微企业参与其中比较大的挑战。为帮助企业解决这一难题,大厂选择将AI能力开放给企业伙伴的方式不同,有人降价,有人开源。

在降价方面,最显著的案例是阿里通过免费使用和“99元计划”来助力中小微企业低成本使用与服务,免费试用的覆盖范围包括云服务器、数据库等在内的 150 款明星云产品。

另外,腾讯和阿里等互联网厂商都选择以开源模式促进惠普。阿里通过开源自研大模型、开放平台工具以及建设模型生态来发展“开放的AI”。目前,阿里自研的通义千问大语言模型提供包括18亿、70亿、140亿、720亿和1,100亿参数的开源版本;腾讯也选择将AI能力开放给企业伙伴,提供包括但不限于图像识别、语音技术、自然语言处理、AI平台服务、智能机器人、行业大模型等人工智能服务。

除此以外,一些大厂选择将AI结合产品开发来践行普惠。京东2023年将重点研究方向聚焦于数智化供应链与AI大模型,将高效的数智化供应链分享给商家,结合大量头部企业实践及京东自建供应链的成功经验,帮助企业从内到外地构建安全稳定的全链路数智化供应链体系。

小米持续投入语音识别、自然语言处理、图像识别等AI技术,专门为老年人设计了一系列智能产品与服务,架设起连接老年人与数字世界的桥梁;在无障碍功能上,小米的研发设计团队长期与残障人士深度沟通,从他们的实际需求出发,不断新增和优化智能手机等设备的无障碍功能。

网易游戏2023年首推具备AI识别的未成年保护系统、干预未成年玩家不理性消费模型、监控与打击体系三大技术体系,可24小时深度参与未成年保护工作的全流程,进行安全护航。网易Al巡逻员可基于未成年行为,精准判断疑似未成年玩家,并进行行为干预,如拦截不理性消费行为。

另外在医疗服务健康中,腾讯也将AI融入医疗下乡当中,基于在医学影像AI 识别与处理技术的积累,开发了“腾讯觅影数智医疗影像平台”,支持了部分疾病在社会层面的普惠性大规模筛查与及时治疗。如在“青光眼AI辅助诊断”软件提高青光眼临床诊断效率的应用上,有效降低20%青光眼漏诊率,同时误诊率降低2%,为青光眼筛查提供了一种有效而快捷的方式。

2023年,网易集团、网易公益联合浙江省残疾人福利基金会发起“人生第一句”声音复原公益计划,利用网易的iSpeech技术打造首个AI复原听障人士原声的工具。听障人士仅需上传2分钟没有完整语义的发声片段,AI就可以根据他们输入的文字,用他们的音色“说”出来。该产品已面向全国听障人士免费开放,帮助他们无障碍、有情感地与外界交流。


实践2:建绿色数据中心应对AI能耗

随着人工智能技术的快速发展,数据中心作为AI的基础设施,正面临着前所未有的能耗和散热挑战。AI大模型训练和部署需要大量的算力资源,这些高性能计算设备在运行过程中产生的热量急剧增加,对数据中心的冷却技术提出了更高的要求。南都研究员梳理发现,作为大模型赛道中的重要参与者,多家互联网大厂建立绿色数据中心来应对AI能耗,已成为一大重要趋势。

根据阿里巴巴最新ESG报告,2024财年阿里自身运营净排放量为444.9万吨,同比降低5.0%;减排量达到232.0万吨,相比上一财年显著提升63.5%;清洁电力使用比例达到39.0%,同比提升 11.8 个百分点。价值链净排放强度为8.1吨每百万人民币收入,同比降幅达到7.0%。

在技术层面,阿里巴巴正在通过技术创新来提高能效和减排。例如,自建数据中心的电力使用效率(PUE)在2024财年降至1.200(PUE越接近1表明能效水平越好),保持亚洲领先水平。另外,为了获取更加稳定的清洁电力,阿里持续进行新的尝试。在河北省,阿里参与投资和建设装机量 500兆瓦的“源网荷储”项目。同时,在江苏省落地20年期可再生能源长期购电协议。

除了自建数据中心来完成内部可持续能源模式的建立,阿里也在助力其他行业节能降碳。在水泥行业,基于“工业大脑”控制平台AICS,阿里云与华新水泥联合研发了水泥低碳生产智能控制系统(HIAC),通过大模型的数据学习与优化,有利于控制水泥回转窑煅烧过程中的温度的稳定性,从而可提升替代燃料燃烧的稳定性和效率,保证水泥生产质量的同时,在绿色低碳生产迈出扎实的一步。

同样以AI助力行业的还有网易。近期,网易与徐工合作发布搅拌站场景无人装载机“黑灯工地”产品。据悉,“黑灯工地”场景里,装载机器人可在无人且全黑环境下自动化运行,实现24小时不间断生产。该机器人依托网易灵动自研的激光融合感知、高精度料面感知、铲料点智能选择等技术,以及徐工智能化技术平台,即便无外部光源,也能精准定位导航,完成铲卸料操作。该方案生产效率可达传统站点120%,能源消耗降低15%,综合运营成本节省30%,把人从高危机械操作里解放出来,保障作业安全高效。

图片

无独有偶,百度在其最新披露的ESG报告中提到,大模型的迅速发展使算力需求激增,导致能源消耗增加,给百度绿色数据中心技术研发带来更严峻的挑战。为应对这一挑战,百度探索AI技术、供电系统、冷却系统、算力等技术的结合方式,并考虑技术方案适配性,在数据中心最大限度应用使用风能、太阳能等可再生能源,并采用低能耗设备,通过人工智能技术开展预测性分析与自动化调度,有效调度资源,提升整理计算效率。

值得一提的是,在数据中心的建构中,由于液冷技术因其出色的散热效果和节能潜力,逐渐成为数据中心领域的关注焦点。据悉,百度数据中心就拥有多项智能冷却方案与系统,如“冰川”相变冷却技术、“灵溪”液冷冷却技术、浸没式液冷技术。

腾讯在构建数据中心时也通过能源管理实现减排。据悉,腾讯第四代数据中心技术T-Block能够提高数据中心能源使用效率,同时该数据中心推进运维用电转型为可再生能源。另外,腾讯还制定了腾讯供应商ESG行为准则,与供应商携手推进ESG融入商业实践,包括把环保合规行为纳入供应商评估和年检,并将数据中心智能低碳的运行维护技术推广至合作伙伴。


实践3:打造“负责任的人工智能”

应对人工智能仍需面对隐私、伦理道德以及法律等挑战,互联网企业都提出了要打造“负责任的人工智能“人工智能的道德伦理”等相关议题,从建立专门的人工智能部门、制定人工智能管理规范、注重输入训练数据筛选等方面来打造“负责任的人工智能”。

制定和实施AI伦理政策、提高AI的透明度和可解释性、保护隐私和数据安全三方面来确保人工智能技术的安全可靠。

目前,多数互联网大厂都已通过建立人工智能专门伦理部门来管理伦理风险。为了系统化开展科技伦理审查,网易推动成立公司内部的“科技伦理审查委员会”和主要由外部专家组成的“科技伦理顾问委员会”,作为科技伦理工作的指导组织;2023年10月,百度成立科技伦理委员会,由百度集团资深副总裁、CEO助理李震宇出任委员会主席,百度技术委员会理事长陈尚义担任副主席;腾讯设立AI技术委员会,全面协同AI方面的工作,包括跨团队的AI技术交流,对AI项目开展评估和指导。

另外,在公司内部制定相关内部政策来进行相关规范,也是互联网企业常见的进行伦理治理的手段。

在制定和实施AI伦理政策方面,腾讯已经制定《腾讯AI数据安全管理制度》《AIGC新产品新功能评估报批管理制度》等人工智能管理规范,并修订部分数据安全规范,新增人工智能相关数据处理要求。这些规范保证企业能实施全面的数据管控、坚守安全合规原则以及构建可信AI系统,以确保技术的健康发展和用户隐私的保护。

作为在游戏生产流程中已深度使用AI的游戏公司,网易制定了《AIGC技术数据及内容安全专项合规指引》《产品AI美术工具合规使用指引》《申请授权外部供应商使用公司AI美术系统流程》等内部政策,明确了AIGC技术及工具的应用规范,保障公司在AI业务方面的合规性。同时,网易制定了《算法科技伦理审查制度》,从组织机构、科技伦理、审查规范、审查流程、监督考核等方面规范了公司在算法领域的科技伦理审查工作。

AI系统通常被视为“黑匣子”,为了增强透明度和可解释性,需要开发“可解释的算法AI”,并提供用户和监管机构访问决策过程的途径。在这个过程中,需要开发模型的厂商从研发过程中提前介入设置。

百度在研发大模型过程中不断加强安全评估和管控能力,确保AI安全可控;并积极参与国家伦理治理流程,让科技发展“符合公德和伦理”成为基本要求,为科技创新明确边界,有效防范重大科技伦理风险,进一步打造负责任、可持续的AI;为了应对人工智能领域的新兴数据安全、模型安全和伦理风险等问题,腾讯在安全类别体系、对抗攻防、隐形毒性内容检测、隐私训练数据抽取、社会伦理道德植入等方面进行了深入研究,并已开始研发和应用相关安全工作。同时,腾讯AI Lab还聚焦于基础模型的可靠性和智能风险治理等前沿探索研究,以构建更加可靠和安全的AI系统。

另外,腾讯还从模型训练数据方面入手,从数据全生命周期出发,腾讯整合通用安全能力,构建数据安全流程体系,确保语音、图片、视频、文本等训练数据的安全合理利用,以及输出的内容符合伦理和法律规范。


风险

AI生成内容披露、科技伦理治理体制仍有待加强

尽管目前对于在AI领域面临的诸多问题,互联网大厂、平台与监管机构都在行动,但随着AI技术的深入融入人类生活,其中越来越多的风险仍需预防。

近期,在2024可持续社会价值创新大会的AI向善分论坛上,清华大学社会科学学院教授、科学技术与社会研究中心主任李正风就提出,目前正处于AI技术快速发展时期,一些风险在人类尚无法充分应对的情况下有可能带来不可逆转的危害;另外,自动化技术和智能化技术使得AI技术对人类生活可能带来的社会伦理风险在多种场域、多个时空节点同时爆发;在这个过程中,人和AI之间的关系完全颠覆了以前人和技术之间的关系。尽管目前AI还在人类布局之下,但是未来人和技术之间的关系是否会出现不可预见的风险或危险仍需人类做出充分考量。

中国科学院院士、北京大学教授梅宏近期在第二届中国科技伦理高峰论坛上也提出,应该充分考虑技术带来的伦理问题,在AI快速发展的同时对可能的风险进行研判,并提醒科技工作者时刻牢记科技向善、以人为本。

梅宏因此建议,目前应当完善科技伦理治理体制机制,明确数字技术领域的治理重点和安全护栏,对数字技术进行分级分类治理,同时建立健全AIGC(生成式人工智能)的主动披露标注制度并开展相关技术研究。同时,当数字技术研究涉及对人的认知能力调控、违背人的自由意志的研究应列为禁区。在技术和产品应用阶段,要根据具体场景及影响来确定。“例如大规模远程监控、自主决策的社会评价体系、操纵个人意识和行为并造成个体或他人身体或心理伤害的技术,以及以超越或替代人的认知能力为目标的AI技术研发,应当受到限制。”梅宏说。

除了伦理治理机制体制以外,AI生成内容的立法方面仍有待加强。近期,广电总局网络视听司发布《管理提示( AI魔改)》(下称《管理提示》)回应将对“AI魔改视频”出手管理。在具体管理要求上,一是要求各相关省局督促辖区内短视频平台排查清理AI“魔改”影视剧的短视频,并于12月10日反馈工作情况;二是要求严格落实生成式人工智能内容审核要求,举一反三,对各自平台开发的大模型或AI特效功能等进行自查,对在平台上使用、传播的各类相关技术产品严格准入和监督,对AI生成内容做出显著提示。

有业内人士向南都研究员指出,目前关于AI侵权问题主要的法律法规依据是《互联网信息服务深度合成管理规定》和《生成式人工智能服务管理暂行办法》等规定。“以生成式AI举例(输入关键词,输入素材等生成AI视频),生成者可能就涉及侵犯原作品复制权、改编权及信息网络传播权三种专有权利”。

该人士还表示,目前监管层已经在积极推动AI领域立法,虽然还没有完全上升到法律程度,而是各种管理规定,暂行规定,但目前关于AI侵权的相关判例已出现。监管提示下发后,各大视频网站会对此类视频收紧监管。

也有学者呼吁建立AI生成内容的披露标准机制,建立涵盖大模型开发者、创作者、使用者的标注责任机制;鼓励多条技术路线推进大模型生成内容标注技术研发;完善大模型内容审核制度规范和检测技术开发;推进相关标准和规范制定并将之国际化。

目前,一些平台已做出相关措施。据悉,小红书平台加强对识别为疑似AI生成的内容进行显著标识,提醒用户注意甄别内容真实性。同时,平台设置了机器识别+人工识别的双重屏障,以减少AI生成低质内容的曝光,针对其中侵权、假冒、诱导等内容第一时间下架处理。同时对于创作者,平台要求主动对AI生成内容进行显著标识,并持续简化打标流程,鼓励创作者利用新技术进行内容创新的同时,也积极参与到生态建设中。


出品:南都政商数据新闻部、上海新闻部

统筹:甄芹 马宁宁 田爱丽

采写:南都记者 林文琪

编辑:田爱丽

更多报道请看专题:数启新篇,智绘未来!第七届南都智库周

对这篇文章有想法?跟我聊聊吧
南都新闻,未经授权不得转载。授权联系方式:
banquan@nandu.cc,020-87006626。