您的位置:首页>生活家 >

面对高级AI,我们如何作答?

来源:成都商报  

大学教育怎么办?

如果说此前的大学教育属于“温水煮青蛙”,那么ChatGPT等技术革命的出现则倒逼教育反思,中国大学教育变革迫在眉睫

机械化、信息化、人工智能化纷至沓来,一次比一次速度更迅猛、影响更广泛而深远。尤其是去年底发布的大语言模型ChatGPT,短短几个月,带给人们的震撼不亚于工业化开端蒸汽机的出现。几乎每一个行业都在讨论,自己的工作哪些部分甚至全部何时将被未来的超级人工智能取代。比尔·盖茨说,ChatGPT是他一生中遇到的两项革命性技术之一。


(相关资料图)

如何看待ChatGPT及超级人工智能?这将对世界当下和未来构成何种影响?如果人工智能真的成为赶超人类的新物种,人类该如何应对?如何将其重新诱入“所罗门的瓶子”?教育特别是大学教育又该如何转变?

如果说,此前的技术革命都是工具革命:技术再进步,也是作为人类的工具,人始终是技术的主人。但ChatGPT之后,却是作为“智性”的对手展开竞争。人们担心的不止是它抢走手上的饭碗,甚至会影响到人类最基本的存在。

事实上,ChatGPT已给教育带来巨大冲击,对于大学教育尤盛。据报道,在美国一项对1000名18岁以上大学生的调查中,89%的受访者承认在完成作业时用过ChatGPT。国内某高校大二学生仅输入20个字的提问,凭借ChatGPT生成1200多字课程论文,成功拿到该门课程90多分的好成绩。于是,美国多所高校直接禁止学生使用ChatGPT,英国、澳大利亚、印度多所大学则限制学生使用。

教育本来就是人对人的知识交往,大学教育在知识交往的阶位上更高。关于教育,世间流行的一句话是:教育者只有自己有一桶水,才能倒出一碗水。教育其实就是从高处向低处导流的过程。一般而言,教师尽力把水蓄得多一些,就能给出学生更多。大学教育亦是如此,教师尽可能学富五车,学生才能多学多得。如今,ChatGPT打破了教师在知识上的优越感,ChatGPT所拥有的学海捕捞能力,在某种程度上大大超过教师。一个教师皓首穷经,可能远不及一个移动硬盘的知识容量。

对于中国教育而言,尤为如此。功利主义的教育理念催生了一波又一波的“小镇做题家”和“超级练习生”,从基础教育到高等教育,几乎都是如此。本来,大学里的学习,应该是放慢节奏,在知识的庭院中闲庭信步,可多数大学还是继续在功利主义教育的惯性之下,为绩点而战,继续生产“卷王”。

据报道,今年北京高校毕业生约28.5万人,硕博毕业生人数首超本科生。这并非一个可喜的现象,当大学生把学历和知识普遍拉高,高学历成为“普通学历”,本科教育的职教化乃至研究生教育的本科化,人与人之间的竞争就会更为惨烈。

大学作为知识的高地,本来是负责培养高端人才,鼓励创新原创性知识和技术,如今则被高度内卷化,以至于都忙着推高知识的天际线,甚至被埋没于知识的泡沫下,大学真正的本意则被遮蔽了。

可以想象,如果连大学都在追求知识的GDP,无视大学的本质,只苟且于眼前的指标,漠视远方的召唤,那么,大学有可能被异化的知识反制,更不要说驾驭ChatGPT了,其一旦脱缰,反人类的“倒刺”就会伤人。

清华大学知名教授钱颖一曾表示:未来的人工智能会让我们的教育制度下培养学生的优势荡然无存。他认为,中国教育的最大问题,就是我们对教育从认知到实践都存在一种系统性的偏差,这个偏差就是我们把教育等同于知识,并局限在知识上。人工智能发展势头强劲,这些让我们认识到对现有教育体制和方法进行改革的迫切性。他建议,第一,教育应该创造更加宽松的、有利于学生个性发展的空间和时间;第二,在教育中要更好地保护学生的好奇心、激发学生的想象力;第三,在教育中要引导学生在价值取向上有更高的追求,避免短期功利主义。

诚如斯言。如果说,此前的大学教育属于“温水煮青蛙”,那么ChatGPT等技术革命的出现则倒逼教育反思,中国大学教育变革迫在眉睫。

爱因斯坦提出过一个观点:“大学教育的价值不在于记住很多事实,而是训练大脑会思考。”在1921年获得诺贝尔物理学奖后,爱因斯坦首次到美国访问,有记者问他声音的速度是多少,他拒绝回答。他说,你可以在任何一本物理书中查到答案。爱因斯坦此言,很值得我们深思。

成都商报-红星新闻特约评论员 李岱

马斯克等千人“喊停”,

AI研发需要按下暂停键吗?

一个人类与技术相伴的原则也再次被高度强调:只有可控的人工智能才有未来

日前,特斯拉CEO埃隆·马斯克率数百位科技行业高管在一封公开信中呼吁,所有人工智能实验室应立即暂停比GPT-4更强大的人工智能系统训练,暂定时间是6个月以上,直到各界共同制定出一套能顺利实施并由独立专家审计的安全协议。

据报道,截至目前,在这一公开信上签名的有1126人,除马斯克之外,还包括苹果联合创始人史蒂夫·沃兹尼亚克、Stability AI的创始人穆斯塔克、Skype的联合创始人和Pinterest联合创始人以及一位图灵奖得主。

公开信给出的理由是,“高级人工智能可以代表地球生命史上的深刻变化,应该投入相应的关注和资源进行规划和管理。但不幸的是,这种级别的规划和管理并未发生。在最近几个月,人工智能实验室被锁在一场失控的竞赛之中,大家争相开发和部署更强大的人工智能系统,以至于没有人能够完全理解、预测或可靠地控制这些进程,即使他们的创造者也不能。”

也就是说,对于高级AI,人们目前还不能够完全理解、预测和控制,因此需要在制定可控协议和措施之后进行研发,才能保障对人类社会的安全。而据报道,欧洲刑警组织近日也提出警告,“大型语言模型检测和重现语言模式的能力,不仅有助于网络钓鱼和在线欺诈,而且通常还可以用来冒充特定个人或群体的讲话风格。这种能力可能会被大规模滥用,以误导潜在受害者将他们的信任交给犯罪分子。”此外,一些人担忧人工智能可能引发的军备竞赛,以及带来的更大风险。

不要忽视AI可能对人类社会造成的伤害。借此,一个人类与技术相伴的原则也再次被高度强调:只有可控的人工智能才有未来。

但也有人对暂停AI研发不以为然,认为是杞人忧天,尽管AI技术的发展可能带来一定风险,但呼吁暂停AI研发并非解决问题的最佳途径。AI技术的进步为人类社会带来了巨大的机遇,就算AI技术可能带来风险,也不能将责任仅仅归咎于技术本身。在很大程度上,风险的产生与管理层次、政策制定以及人们对技术的应用方式密切相关。因此,需要在多个层面采取措施,确保AI技术的健康发展。

实际上,可以通过加强AI技术的监管和管理,引导其朝着更加可控、可预测的方向发展。政府、企业和研究机构可以共同制定一套合理的安全规范,确保AI技术在研发和应用过程中遵循一定的道德和安全标准。此外,AI技术的开发者还应与相关政策制定者合作,加快构建健全的AI治理体系。

显然,暂停AI研发和反对暂停AI研究都有理由,而且其理由有交集:AI有风险,要加强对AI的监管。在此情况下,一个可能更好的做法是,不必暂停AI研发,但是国际社会和社会各界要马上制定全球和全社会能执行的一套监管措施,一边研发,一边制定规则,双管齐下,对AI的发展可能更为有利。

现阶段,可以举行关于以ChatGPT为代表的人工智能听证会,判断其风险,并且在此基础上提出监管规则。事实上,这在科研中已有先例。2010年5月20日,由美国科学家克雷格·文特尔主持的研究团队宣布,世界首例人造生命——完全由人造基因控制的单细胞细菌诞生。该项实验表明,新的生命体不一定要通过“进化”来完成,也可以在实验室里“被创造”。消息传出,立即引起社会各界的强烈反响,许多科学家对这一成果给予了积极评价,但也不乏忧虑之声。

于是,在华盛顿国会山,举行了一场题为“合成生物学发展及其对医疗卫生和能源意义”的听证会。听证会的结论是,合成生物学技术现阶段还不会立竿见影地引起环境、安全及伦理方面的严重问题,但需要密切关注其未来发展情况。时至今日,人造生命尚未对人类社会和环境造成危害。

有鉴于此,对于以ChatGPT为代表的人工智能也不妨召开听证会,先要明确其是否对人类社会有威胁,以及威胁多大。其次在后续讨论中,应当为AI立规矩。在联合国教科文组织《全球人工智能伦理建议书》中,提出了一个基本原则极为重要:将伦理视为对人工智能技术进行规范性评估和指导的动态基础,以人的尊严、福祉和防止损害为导向。现阶段可以此为指南,制定相应的规则和措施,尤其是在研发ChatGPT的国家和地区,应该制定人工智能研发和使用的规范。

成都商报-红星新闻特约评论员 张田勘

关键词:

最新文章