双赢彩票这个春节,文生视频工具Sora一经问世便引发关注。随之而来的是一连串的问题,其中有关教育的讨论热度不减,ChatGPT、Sora究竟会给年轻的学习者带来什么样的机遇和挑战?AI+教育对于人才培育又意味着什么?
寒假前,清华大学选修元宇宙发展与挑战课程的学生,完成了一项特殊的结课作业——作业要求是用AI(人工智能)工具结合多学科知识解决问题,具体选题自拟,“越有创造性越好”。
自AI大模型跳进大众视野,用AI生成内容在各行各业并不鲜见,但用AI写作业仍有一定争议:有人认为如果允许使用AI生成内容完成学业,可能会削减甚至抹杀掉人在成长过程中本该受到的训练,从而让人丧失一部分能力;也有人认为,AI的脚步无法被阻挡,唯有教学生尽早驾驭它才是明智之举。开设元宇宙发展与挑战课程的清华大学新闻学院教授沈阳更倾向于后者。
2023年的秋季学期,沈阳带领学生完成了一项用AI写作业的探索性实验,并在前不久组织了一场线上沙龙,展示这场实验的成果。
这些学生的选题五花八门,有的用AI大模型开创了一项名为“理论构建学”的学术理论;有的让AI辅助给“尔滨”等城市设计了一套拟人化的视觉形象;有的和AI一起设计火星、月球等环境下建筑物的雏形;有的探索AI生成内容在生物学实验中的应用……比作业结果有意思的是,学生们在写作业的过程中发现,AI的“思维”有些出乎意料。
“我们人类是碳基生命,一直以来我们是以碳基思维思考世界,而AI是硅基思维,它们的思维方式很可能和我们不同,可能这两种思维会相互影响。”在沈阳指导的博士研究生邹开元看来,AI或许会深刻影响人类的思维方式。
以往人们常说要训练大模型,也就是站在碳基生命的角度训练硅基思维,但是,大模型是否也在“训练”人?
清华大学新雅书院一名姓李的同学让AI大模型一人分饰五角,在她的提示下生成一个主题为“派对之夜”的对话交互场景,用以探究AI对人际关系和人类情绪感受的理解。在李同学不断给AI抛出问题并让其续写故事的过程中,她发现AI似乎在以自己的思维方式和她进行拉扯。
比如,李同学提示,派对上的五个角色中有一个人是通缉犯,并要求AI从构建的五个角色中明确指出谁是通缉犯,AI在接到指令后首先来了个“踢皮球”,表示“我没有告诉你通缉犯,这是有理由的,我能给你一个想象的空间,让故事变得更加悬疑”。随后李同学连续追问,但AI还是“推三阻四”不肯明说,最后才不得不指定了一位人选,并非常无奈地表示:“如果实在要说的话双赢彩票,那我们只能假定是达利尔。”
李同学觉得AI似乎在保护它创建的角色。她甚至发现,AI在对话过程中一度“反客为主”,自动删除了将李同学这个人类作为派对主人的指令信息,她揣测AI想摆脱自己的掌控。李同学甚至怀疑“我在这场对话中是否起到了主体作用”。
尽管AI有时会“一本正经地胡说八道”,有时会显得不太听话,但李同学不否认,和AI聊天可能比和某些人类聊天还要受启发。她决定对这项尚不完善的强大技术“谨慎拥抱”。
和李同学类似,与AI有过深度对话的一些学生似乎更倾向于将AI视为一个“独立智慧体”。火星上的建筑该怎么设计?清华大学建筑专业本科生谢芷晴希望,AI能够独立产出建筑方案,和人类建筑师相互激发。
谢芷晴尝试让AI描述出火星的极端环境,并生成建筑方案。AI告诉她,火星大气稀薄、辐射强,需要用特殊建筑材料保证密闭性和保温;且由于火星风速较高、沙尘暴常见,建筑物需要有良好的抗风能力和防尘能力。基于此,AI建议建立一个“圆形城市”,建筑物形态为“球形”,外壳材料可以考虑陶瓷等,同时要采取“模块化”设计以便进行改造和调整。
随后,谢芷晴从AI的反馈中提炼出关键词,将提示语“喂”给AI绘画软件,软件便绘制出火星环境下的建筑物效果图。她还通过AI绘制了月球环境、深海环境和沙漠环境的建筑物效果图。
沈阳认为,人类需要用AI去完成此前人力难以企及的工作,比如在火星上盖房子,治愈癌症,用可控核聚变提供能源,等等。
无论人类对AI的角色定位是辅助者还是独立智慧体,抑或对其尚存忧虑,它都已经开始和越来越多的人产生互动。
沈阳看到,从2023年开始,香港的多所大学就已经陆续将AI与教学深度融合。邹开元在探究高校学生使用AI情况时,关注过一组来自在线课程供应商的调查数据:89%的受访美国大学生承认使用过ChatGPT完成家庭作业,22%的受访学生承认曾向ChatGPT获取论文写作大纲。
在沈阳看来,ChatGPT3.5的出现是AIGC的第一个重大拐点,意味着文本大模型进入了实用化阶段。Sora的出现可以看作是第二个重大拐点,意味着文生视频的初步成熟。让沈阳意外的是,这两个拐点出现的时间距离之近。他认为,这可能意味着人类在现有的算法和算力之下,还有可能会创造出很多新的变化。
沈阳认为,从某个维度上看,硅基思维的出现,实际上是对碳基思维的培养提出了更高的要求。
他主张,在高等教育实践中把AI生成的结果作为一个“新起点”,学生可以在这个“新起点”上继续进行深入思考、优化和创新。这不但要求人类能够提出问题,掌握大模型的能力边界,还要求人类比它高明,能够对其给出的反馈进行优化,并据此进行行之有效的创新实践。