
今年市两会,市政协委员、华中师范大学公共管理学院副院长周凤华带来了两份关于人工智能治理的提案。

市政协委员周凤华“跨越时空的合影”。赵立继 摄
去年,周凤华开了一门公共选修课,叫“人工智能时代的沟通力提升”。第一节课,她教学生用AI,第二节就讲风险。课堂上,她让学生用AI生图工具输入“一位大学老师在上课”,结果跳出来的画面里,全是男老师。“算法里藏着的偏见,不声不响,但影响很大。”她还让学生做测试,让不同的AI帮忙写英语考试作文。结果有的AI飞快地生成一篇,有的则拒绝,并告诉学生作弊不对,有的甚至回复“这次应急但下不为例”后迅速生成了一篇。她意识到,不同的AI工具,其伦理水准可能天差地别。
去年,她还深度参与了外地一个城市的“AI+社会服务”项目。她的角色相当于“产品经理”,结合自己多年基层调研的经验,向技术公司提需求、设指标。“那个项目叫‘政策找人’,不用市民申请,而是通过算法分析各种数据,主动找到适配相关政策的人。”周凤华说,这虽然是好事,但算法要处理大量敏感的个人信息,还存在算法偏见的风险。“算法也是人设计的,背后可能无意埋下主观偏见,就像一辆无人驾驶汽车,遇到危险时,算法是优先保护车里的人还是车外的行人,这本身就是伦理选择。”
周凤华意识到,AI隐藏的风险,相比于对个人,其对政府部门来说更大。于是她今年提交了两份提案。一份建议武汉筑牢AI安全底座,建立全市的评测认证平台,给AI应用分风险等级,开辟试验田,一份则重点关注如何治理AI生成的虚假信息,守护社会信任。
周凤华希望武汉在大力发展人工智能的同时,让技术跑得又稳又快。她总结自己的履职心得,在课堂和社会调研中看到了AI的风险,她的职责就是将其转化成能让城市更安全的建议。
(长江日报记者杨荣峰)
【编辑:丁翾】
请输入验证码