压低身前的话筒,把嘴往前凑了凑,王安仁开口了:
“我同意前面周袆袆专家说的,确实,教育中不能缺失师长同学,但现在AI的发展方向很明显,渐渐取代人在教育领域从事的工作,但要注意,它能取代的只是工作,不能提供人际互动实践与情感交流,不能为学生提供情绪疏导。
另外,AI的智力压制实在太强大了,它会让我们的学生、也即家庭的孩子,社会的年轻未来成为思维定制化的产物。
因为AI内部产生的学习内容和学习机制是固定的,如果这种固定套路扩展到整个教育体系,意味着所有人都要学几套完全一样的东西,做出完全一致结果的答案才算合格,我们的行为模式都会被规定好,我们不再有自由思考的空间,任何创新在AI考核体系下都被判错,得不到任何鼓励,太可怕了。”
陈广言插话:“我们可以通过研发解决你说的问题。”
“怎么解决?一个AI就是一个思考单元,它得出的知识体系和教育方法具有唯一性,全国这么多学生只能接受这种唯一性。
机器的判定又具有机械性,我们的学生没有达到机器的要求会被不断重复,即使他们不认同机器所说的,为了学习下去也只能妥协,这种妥协多了是不是就会接受、相信了呢?
陈先生应该有我的资料,即便前面没在意现在手上应该也拿到我的资料了,我也是北都大学社会学专业的,我也遵从自然思维主导学派。
也就是说我希望人的自然思维在社会发展中起更积极的作用,而不是把主体地位让给机器。”
王安仁接下来说了不少,中间几次作为西府片区居民代表与企业方和倾向AI应用的专家争吵撕扯。
袁方:“技术进步是一种客观情况,并不是说有人想阻止就能阻止的,社会前进的力量自然会清除掉那些阻力。”
王安仁:“其实我总体上赞同袁律师刚才的那句话,但需要注意,虽然技术会推动社会发展,但技术中立和技术存在两面性并不冲突,技术带来的不好的一面我们要充分重视。”
周袆袆:“是的,以往的实践告诉我们技术的副作用是可以通过立法或政策调整降低甚至消弭的,今天的听证会存在的作用就是要限制AI在教育方面的副作用,甚至是根本性的消极影响,AI不是不能用于教育,但必须事先把其不良影响控制住,不然就会影响一代甚至几代无数的学生。”
陈广言:“你们说谓的不利影响,其实都基于脑中的虚构,事情还没发生,就说有不利影响,开玩笑呢。”
周袆袆:“哈,我们还真写过AI教育运用的理论模型,今天我说的这方面的消极结果都是模型运算的结果,最近会有相关的学术成果发表,希望大家认真研究。”
王安仁:“事前预防,事前预防啊!真让消极影响明明白白的呈现在我们眼前,你们企业是赚到钱了,但我们的学生,未来的子弟们人生可能就被改变,甚至毁损了,那不是一个两个,是几十万上百万年轻人啊,如果这个过程中我们不能及时调整,甚至更多人受影响,学生需要老师,需要同伴,我说的。”
一阵火药味十足的语言对抗,王安仁和周袆袆打了一个相当不错的配合。
本章未完 点击下一页继续阅读