让真正的科学火起来******
【科学随笔】
作者:崔兴毅、张辰龙(均系南京航空航天大学博士)
当下,科普很热,伪科普也很热。
一面是追着新冠跑、比疫情更难防的伪科学。诸如“吃大蒜可治新冠”“我家自来水阳了”等视频流传网络;诸如可抵御病毒、预防新冠的花式商品在网店热卖。它们中,有的打着“高科技”旗号,有的则是人们熟悉的“老面孔”。
一面是科普盛宴“出圈”,“好玩”的科学“圈粉”无数。在中科院联合抖音举办的2023跨年科学演讲中,诺贝尔奖得主、院士学者分享了大脑信号、航空航天、黑土地保护、电磁学等前沿科技,抖音直播间观看人次突破2500万。
科学热中真与假的对撞,反映的正是公众对科学知识的渴望。当人们信息获取的需求通过移动终端被大量释放后,科普方式就应及时“换挡升级”。在公众科普的语境中,更加立体、全面的体系正在被构建,更新潮、更便利的方式极大缓解了科普“不平衡、不充分”的矛盾。还有在跨年晚会云集的平台中突围出的一场跨年科学演讲,以知识的普及辞旧迎新,显然是令人欣喜的现象。
不可否认,当下有效知识的供给依旧不足,这直接影响着人们对知识的获取。由于科学暂时无法满足人们的所有需要,伪科学便可乘虚而入。一些网络博主,为博眼球聘请所谓“专家”,编造“科学流言”,迎合公众猎奇心理;有的蓄意炒作,制造“健康焦虑”,让产品营销披上健康科普的外衣。这些依靠情感赢得信赖的虚假信息,又借助社交媒体的熟人效应,在公众舆论场如石子投湖般一圈一圈传播开去,让公众感觉更加混乱——即便同一个主题和话题,也可能看到各种不同甚至有些彼此矛盾的解读。
事实上,科学本身就是一种进程。在对物质世界的探索中,科学家们往往会得到很多不同的结论,有些甚至是对立的。这些并不是“伪科学”,而是需要在不断地研究中去伪存真。这种学术观点之争并不是我们本篇文章讨论的内容。
很多虚假信息的传播,是大量依靠“俘获”受众情感,而并非以事实为基础。当然,在科学传播中,事实与情感并非截然对立,或者说不需要情感的力量。现在,半数以上的移动端用户具备一定教育背景,科普的受众呈现出年轻化、高学历的特点,覆盖人群也已拓展到白领、大学生、企业管理者、人文学者等。他们排斥枯燥无味的灌输式科普、说教式科普,对有趣有料的科普,更加喜闻乐见。这种受众多元化、异质性的特点,决定着科普必须与时俱进,一方面专家得“懂行”,另一方面内容得“好玩”。
那么,作为非科技工作者该如何分辨这种信息呢?这很难,需要学校和社会同时发力,提升全民科学素养需要一个比较长的时间尺度,并非一日之功。
在现阶段,科普首先能做的是丰富内涵——不仅仅是科学知识,还应该包括科学精神、科学思想和科学方法等。现在社会上伪科学传播很快,恰恰表明当下公众的科学方法、思维、知识还没有那么高、那么好。以此次新冠疫情为镜,折射出的正是一些公众科学素养亟待提升的现实。包括“冷核聚变”“基因编辑婴儿”等事件,一定程度上没能让公众更加理解科学,反而会让他们更加质疑科学。所以,如果希望通过科普培养公众的科学理性,让人们掌握科学方法,理解科学精神,那么就需要把科普从“解释科学是什么”转向“科学为什么”上。因为“科学的精髓是其方法”,如果只向公众讲解科学的成果和发现,而不讲解严格的科学方法,那么人们何以区分什么是科学,什么是伪科学。
科学实验中的曲折有时比科学成果本身更吸引公众。科学就是在试错的过程中发展起来的。科学往往是先设立假说,然后针对这些假说进行试验。科学在探寻真相的征途上探索着,踉踉跄跄地蹒跚前行。当一种假说被证伪时,假说的提出者当然会很沮丧,但是,这种证伪恰被认为是科学事业的精髓所在。
广大科技工作者在进行科普时,不妨用一种引人入胜的方式来讲述他们走过的路,陈述成果,也呈现探索曲折的过程;点明结论,也聊聊千百次试验运用的方法。只有在真诚沟通中传递科学精神的内核,提高人们对科学类流言的“免疫力”,才能让公众拥抱一个温暖而不是冷冰冰的科学。
《光明日报》( 2023年01月12日 16版)
报告显示:超六成受访者认为应强制企业公开算法******
光明网讯(记者 李政葳)“当前,国内对于算法治理的基本思路和框架都是清晰的,而分级分类精准治理的模式应当可以解决如何落实的问题。”在日前举办的“2022啄木鸟数据治理论坛”上,谈及算法治理的现状,清华大学人工智能国际治理研究院副院长、人工智能治理研究中心主任梁正表示,算法分级分类本身不是目标,而是要针对不同风险场景配备不同监管规则。
论坛由南都个人信息保护研究中心联合清华大学人工智能国际治理研究院、人工智能治理研究中心(清华大学)主办。其间,南都个人信息保护研究中心发布《算法应用与治理观察报告》《个人信息安全年度报告》《平台经济反垄断观察报告》。
记者了解到,《算法应用与治理观察报告(2022)》,梳理了国内外的多项法规,结合热点事件及应用场景呈现了算法治理现状,并发布千份算法治理调查问卷了解公众对算法公开和算法治理的了解程度和基本态度,最后基于多方调查分析,给出了当前算法趋势观察以及未来治理方向建议。
报告发现,目前国内算法治理仍处于早期探索阶段,企业的算法公开主要依靠官方的互联网信息服务算法备案系统,或在舆情事件发生之后。调查问卷结果显示,近半受访者承认算法让自己的使用体验更好,但仅一成受访者认为企业算法公开做得很好,逾六成的受访者称曾遭遇“大数据杀熟”;超过六成的受访者认为应该强制企业公开算法。
“在数据、算法方面治理政策进展显著,在平台与应用方面的政策和落地尚需加紧。”中国科学院人工智能伦理与治理研究中心主任、国家新一代人工智能治理专委会委员曾毅认为,目前人工智能伦理有三个相当紧迫的问题需要被正视:首先,人工智能应当被适度使用;其次,目前人工智能服务知情同意落地艰难,被迫知情同意普遍存在;最后,目前用户数据的授权撤销在人工智能服务中存在巨大挑战,需要监管和更高层的网络服务提供方联合提出更合理的政策与解决方案。
针对日前发布的《互联网信息服务深度合成管理规定》,中国政法大学数据法治研究院教授张凌寒表示,从算法治理角度来说,深度合成管理规定与之前的算法推荐管理规定的思路有所不同,前者采用了一种“三位一体由的数据与技术规范。
具体来讲,由于深度合成技术的门槛较高,技术支持者也被纳入了监管范围内。比如,深度合成服务提供者提供智能对话、合成人声、人脸生成、沉浸式拟真场景等服务,应当进行显著标识,这就将更重的责任落在了服务提供者身上。
中国社科院科技和社会研究中心主任段伟文提到,算法治理需要构建可信任的算法认知,而这需要产业和消费者的共同努力:产业要努力提升算法精准性、透明度,减少偏见,减少歧视;消费者则需要提高数字素养,提升算法意识,加强在人机互动中自主性、控制感和协同意识。
(文图:赵筱尘 巫邓炎)