人工智能来了,但人不会“无能”
本报评论员 陈卓
特约评论员 徐甫俊 陈瑜嘉
人工智能的发展,仿佛在一夜之间成为瞩目与热议的焦点,也冲击与超越着既有认知。
从谷歌Alphago战胜围棋“不败少年”李世石,到Stable Diffusion图像生成模型挑战众多画家,再到ChatGPT已经能够通过中级会计师考试……人工智能强大的“智力”让人难以望其项背,有人开始自嘲成了“智障”——知识经验的积累、学习探索的能力、技术运用的技能,对于人工智能而言唾手可得,我们的“引以为傲”似乎显得不值一提。
从小区业主用ChatGPT杜撰杭州取消限号让人信以为真,到利用AI画图程序Midjourney等生成颜值博主以假乱真,再到B站UP主用“AI孙燕姿”的声音翻唱歌曲博取流量……深度合成技术的“逼真”让人深感真假难辨,有人开始担忧人类会变得“无能”——分不出真伪、看不清事实、探不得真相,从而引发社会治理新问题,我们的“深信不疑”好像变得信疑不定。
面对人工智能技术的日益强大,我们真的无能了吗?
一
深度合成是人工智能最新的应用领域,利用深度学习、虚拟现实等生成合成类算法制作文本、图像、音频、视频、虚拟场景等网络信息的技术。
这些技术渗透到现实中,不断刷新我们认知的新奇特:比如,横空出世的ChatGPT,编得了代码、作得了诗词、写得了论文,这款会“聊天”的程序甚至似乎还会迎合人的心理。再比如,人脸替换、合成人声、虚拟偶像、修复历史照片、一键AI绘画……
伴随着层出不穷的使用需求,深度合成技术的进步体现在各个领域的全面开花,数量增长态势引发超高关注度,很多之前不可思议的事情变得轻而易举,其中的“红与黑”故事也不时上演。
红榜,人人知。如虚拟偶像登上央视春晚,手语数字人为听障人士解说冬奥赛事,在智能制造和医学影像上对人类的帮助,技术“平民化”让人们可以轻松体会并分享虚拟化身、数字分身等超越现实的乐趣……技术的积累、迭代,推动着经济社会发展,释放发展红利、赋能美好未来。
黑料,也不少。如有女子在平台分享照片,被人用AI软件“一键脱衣”,造谣图片被故意散播;特效合成师利用电脑后期制作,合成与知名女星亲吻的影片在网上广泛传播;有人用ChatGPT编假新闻赚流量不当牟利……技术“造谣生事”产生的实质危害,也频频让人见证“起高楼、宴宾客、楼塌了”的起落。
眼前一亮,后背一凉。人工智能的未来是模拟人的智能继而取代人类,还是延伸人的智能进而扩展人类?真的会让人类无力辨别真假、无法厘清是非吗?
(下转3版)
(上接1版)
二
对此,人们的反应各有不一,变化因时而异。
有“既来之则用之”的即见即用型。许多人一看到深度合成技术的“魔法”,立马在自己的领域中尝试使用。比如在金融、营销、教育、媒体等行业,都出现了对深度合成技术的尝试,效果也很出圈。
有“祇看后浪催前浪”的激动感慨型。一部分人对于人工智能技术显得十分兴奋和期待,感觉新技术浪潮马上就要给世界带来彻底的变革。“好用得吓人”“这是人工智能历史真正革命的开始”“搭不上这班车的企业会被淘汰”的言语不断。
有“山雨欲来风满楼”的担忧顾虑型。也有部分人对人工智能的质变给社会造成的影响表示了担忧。他们担心ChatGPT会被当成作业论文的代工厂、谣言妄语的生成器,并发出质问:“AI的冲击波会造成失业吗?AI是否存在偏见?会威胁人类吗?”美国未来生命研究所发布了名为“暂停巨型AI实验”的公开信,上千名人工智能专家和行业高管呼吁,所有人工智能实验室应当暂停对更强大系统的开发和训练。
以上种种,反映的是在面对颠覆性技术热潮来临时众生相的一个个横切面。之所以人们会有一种盲人摸象的感觉,主要是因为对新事物的不熟悉和不了解。仅凭外观呈现、表象反映的观察,极易陷入偏离实质甚至本质的误判。深度合成等人工智能技术会干扰我们的正确认知,我们更要辩证看待,努力形成正确的认知。
用全面的视角探明事实,就像考古不可能仅依一件文物、一处遗迹断代文明,历史不可能仅靠一段记载、一部史书断言过往,全面综合各维度内容、交叉互验各方面信息,是探明事实的通常路径;用深入的分析发现真相,就像法律上不会仅因一张借条收据或者一条转账记录就说有借贷关系,还需要探究借款的目的、款项的性质。社会基本经验告诉我们,是否符合逻辑的分析、是否合乎常理的判断,是判别真相永远的法宝。
至少目前,遵循实现正确认知的基本规律,人工智能还不足以对我们的正确认知形成根本性的冲击或者动摇,但深度合成等人工智能技术已经对社会生活提出更为复杂的新问题、带来更为严峻的新挑战。
三
造福人类、而非危害社会,是一直以来人们对技术的希冀,对于深度合成等人工智能技术亦不例外。
用好技术,需要有“硬”的规则。
法律的维度不可或缺。法律是规范人工智能技术发展和场景应用的重要保证,也是护航人工智能健康发展的基础保证。欧盟已将深度合成技术纳入《通用数据保护条例》等现有法律框架规制。美国、新加坡、韩国等国家也都有制裁相关人工智能犯罪的法律法规。在我国,自2019年以来陆续出台了《网络信息内容生态治理规定》《互联网信息服务深度合成管理规定》等相关法律文件,为人工智能服务划定了“底线”和“红线”,提供了重要的法律保障。今年4月,国家互联网信息办公室发布《生成式人工智能服务管理办法(征求意见稿)》,刚于5月10日结束公开征求意见,很多人都对其充满期待。
行业的规范必不可少。有了法律规则,也需要企业、组织、个人树立正确的技术伦理观念,推行规范有益的做法。比如深度合成服务提供者应当在生成的内容中进行显著标识,未标识的信息均视为非合成信息,发布者与平台对信息内容负责。以AI“一键脱衣”形成淫秽色情信息为例,应鼓励个人维权,公权力更应依职权依法查处打击制作、传播淫秽物品行为,判定平台责任。
市场的因素至关重要。市场是驱动人工智能技术发展和场景应用的核心力量,也是驱使人工智能向善的关键力量。立足利益责任平衡,以谁获益谁担责为基本逻辑,合理分配人工智能带来的风险责任。比如,人脸识别遭遇人脸操控破解,账号用户责任限于妥善保管个人信息,平台承担主要风险防范责任。
用好技术,还需要有“柔”的手段。
价值导向有根本作用。坚持实现正确认知的基本规律抵御人工智能技术的负面影响。发挥道德倡导和价值导向作用,以宣传教育感染、以技术伦理约束、以专业培训普及,引导人们克服盲从和猎奇心理,遏制人工智能技术的恶意运用。
社会总动员不能忘。这是一场企业、社会、网民等多方主体共同参与的治理,需要各个环节共同推动深度合成技术的依法、合理、有效使用,可及时利用热点案事件以案说法,让每一个人从谨慎识别和使用AI工具做起,避免被不良开发者隐秘收集个人信息、过度索取数据权限,促进深度合成服务向上向善,助力营造清朗网络空间。
不法的应用与技术的发展形影相随,规制规范技术应用是永不止息的战斗。我们能够推动和实现技术的发展,也一定能够实现对技术的善治。
人工智能,人不会“无能”,规范不会“失能”,治理会更智能。