四位互联网企业负责人热议“大流量”“正能量”:技术向善 汇聚“善流”******
“目前,在B站有超过200万中国风作品。过去一年,观看此类视频的人有1.36亿。我们自己也会制作一些和传统文化相关的内容,比如,《花好月圆夜》《舞千年》等。”在2021中国网络媒体论坛内容论坛期间,哔哩哔哩董事长兼CEO陈睿说,B站的UP主大部分是90后、00后的年轻人,去年他用四个词来形容B站的UP主:年轻、有才华、有创意和正能量。
2021中国网络媒体论坛由中央网信办、中央广播电视总台、广东省委网信委主办,以“发展与秩序:让大流量澎湃正能量”为主题。在陈睿看来,主旋律、正能量的内容需要用年轻人喜欢的方式传播,用他们听得懂的话语来传播。传统文化要让年轻人演绎和参与,这样才有生命力。“如果年轻人都不喜欢传统文化,恐怕再过几十年,传统文化就要进博物馆了。”
2021中国网络媒体论坛在广州举行
本次论坛还设置了技术、内容、责任、产业、大湾区五个平行论坛,分别围绕“创新:技术赋能”“传播:塑造价值”“责任:共治共享”“发展:行稳致远”“大湾区:一网相联”等主题展开研讨交流,碰撞思想火花。期间,腾讯公司副总裁陈勇也表示,近十年里,正能量不断深入人心,成为砥砺奋进的时代符号;媒体融合也在加速,全媒体的传播技术和内容创新精彩纷呈,一大批精品力作成为传播过亿的爆款,为正能量传播注入了澎湃动力。
在陈勇看来,流量如同一枚硬币,一面是网民对平台的信任,另一面是平台严肃的责任和庄严的使命。与大流量相伴相随的,是时代的使命,是向善的选择,是用户和社会的价值依归。只有不断创新技术、内容与用户之间的连接形态,不断丰富连接场景,才能推动正能量的流量生态走向壮大。
字节跳动展台工作人员在展示VR技术体验
“未来的世界是靠数智、算力、算法驱动的世界。”产业论坛上,阿里巴巴集团副总裁、阿里云研究院院长肖利华表示,整个媒体发展过程和ICT技术(信息、通信和技术的组合),包括云技术,都在同步往前发展。
肖利华认为,媒体产业在数字技术发展过程中会不断创新,核心是五个方面:一是计算,视频、图片在传输、存储、计算过程中会有一系列大的变化;二是数据,在大数据时代怎样将不同类型的数据进行高效精准匹配会有很大变化;三是AI生产过程中会大幅度改变媒体;四是端,在云网端一体化、媒体元宇宙的时代,创新一定会加速整个过程;五是安全,安全是底线,必须要守住。
“新一代数字基础设施,推动了数字经济崛起,互联网已全面融入经济社会发展和人民生产生活。实体经济的数字化、产业价值链的重塑,正在诞生越来越多的新业态新模式。”快手科技联合创始人、内容安全委员会主席杨远熙说。
“数字经济深刻影响了各行各业,是挑战,更是机会。”在杨远熙看来,数字经济在重塑物理空间和实体经济,也同时在打造一个更大的数字空间。他认为,媒体的数字化转型升级,需要大胆运用新技术、新机制、新模式,以实现传播效率的最大化和传播效果的最优化。(文/图 记者 姚坤森 李政葳 潘迪)
人工智能如何做到可信、可用?专家热议:把责任归结到个人******
中新网北京12月11日电 人工智能治理的理想状态,是人工智能技术能做到可知、可信、可控、可用。而在现实中,人工智能技术手段虽然非常强大,但是离完美、完善仍有相当的距离。从技术角度和技术应用角度,人工智能的发展如何做到扬长避短?
近日,在2022人工智能合作与治理国际论坛上,专家围绕该话题进行了讨论。
中国工程院院士、鹏城实验室主任高文认为,现阶段很多技术还处于发展的过程中,如果过早地说这个不能用、那个不能用,可能会抑制技术本身的发展。但反过来,如果什么都不管,也不行。
“因此,现在更多还是从道德层面多进行引导。同时,做技术的人,也要尽量把一些可能的风险、抑制工具,即约束风险的工具,尽快想明白。自己也做,同时号召大家做,两者结合。”他说。
清华大学智能产业研究院国强教授、首席研究员聂再清认为,我们要保证能够创新,但同时不能让创新对我们的生活产生破坏性的影响,最好的办法就是把责任归结到个人。
“技术的背后是有人在控制的。这个人应该时刻保证工具或创新在危险可控的范围内。同时,社会也要进行集体的监督,发布某个产品或技术,要能够召回、撤销。在创新和监管之间,当然是需要平衡的,但归根结底,还是要把责任落实到个人身上。”他指出。
瑞莱智慧RealAI公司联合创始人、首席执行官田天补充道,在技术可解释性方面,需要去进行技术发展与相应应用场景的深度结合。大家需要一个更加可解释的AI模型,或者更加可解释的AI应用。
“但我们真正想落地的时候,会发现每个人想要的可解释性完全不一样。比如:模型层面的可解释,可能从研发人员角度觉得已经很好了,但是从用户的角度是看不懂的,这需要一些案例级的解释,甚至通过替代模型等方式进行解释。因此,在不同领域,需要不同的可解释能力,以及不同的可解释级别,这样才能让技术在应用场景发挥最好的作用。”他说。
将伦理准则嵌入到人工智能产品与系统研发设计中,现在是不是时候?
高文认为,人工智能软件、系统应该有召回的功能。如果社会或伦理委员会发现这样做不对,可能带来危害,要么召回,要么撤销。
高文说,应用的开发者,系统提交或者最终用户让他去调整的时候,他应该有责任。如果开发者发现已经踩线了,应该给他一个保护机制,他可以拒绝后面的支持和维护,甚至可以起诉。“不能只说哪一方不行,光说是开发者的责任,他可能觉得冤枉,因为他只提供工具,但有时候是有责任的,只是说责任怎么界定。”
“在人工智能的发展过程中,一方面要建立一些红线。”田天建议,比如,对于人工智能的直接滥用,造假、个人隐私泄露,甚至关联到国家安全、生命安全的,这些领域一定要建立相关红线,相应的惩罚规定一定要非常清晰,这是保证人工智能不触犯人类利益的基本保障。
“在这个基础上,对于处于模糊地带的,希望能留有更多空间。不光是从限制角度,也可以从鼓励更加重视伦理的角度,促进合规地发展。”田天称。
2022人工智能合作与治理国际论坛由清华大学主办,清华大学人工智能国际治理研究院(I-AIIG)承办,中国新闻网作为战略合作伙伴,联合国开发计划署(UNDP)、联合国教科文组织(UNESCO)等国际组织、国内外学术机构支持。(中新财经)
中国网客户端 国家重点新闻网站,9语种权威发布 |