当前位置: 您当前的位置 : 科技金融网  ->  论坛新帖  -> 正文

守住产品底线,防范人工智能作恶

2021年01月04日 10:14:38 来源:科技日报 作者:代小佩

  “未来10—20年,AI技术将渗透至与人类密切相关的领域,比如医疗、司法、生产、金融科技等风险敏感型领域,AI技术如果犯错,就会造成较大系统风险。”2020年12月29日,在未来科学大奖周举办的“青年对话”活动中,清华大学计算机系长聘副教授、中国科协全国委员会委员崔鹏说。

  活动中,腾讯科学技术协会秘书长张谦表示,面对AI技术所引起的风险问题,首先应该关注的是守住AI产品底线,即避免技术作恶。

  在这方面,美团首席科学家夏华夏认为,法律法规方面需要做大量工作,包括制定AI行业的标准、规范,以及从国家层面完善、出台相关法律法规,从而对AI技术发展进行把控。

  谈及AI标准化的实践,中国人民大学法学院副教授、未来法治研究院社会责任和治理中心主任郭锐提到两个原则——人的根本利益原则和责任原则,“这两个原则的宗旨是让AI的决策和行动尽可能通过人的干预来避免对人的伤害”。

  “徒法不足以自行。”郭锐坦言,法律本身也存在局限,规避AI技术潜在风险,需管理者对AI技术有透彻的了解,这样才能对其进行有效管制,“法律是建立包容性社会的重要工具,法律界要和企业、技术等方面专家合作,这样通过法律来对AI技术进行管理约束的目标才能达成。”

  星界资本管理合伙人方远认为,各大核心数据平台处于AI风险管理的重要位置,“在互联网和大数据时代,大平台是数据的采集者也是守护者。务必要对数据使用权做出清晰界定,这对整个社会的AI发展有重要意义”。

  “AI技术的风险治理需要科技工作者、企业管理者、政策制定者、相关法律专家以及投资人多方努力。”中科院计算所研究员山世光说。

  除了守住底线,与会者还提到,要厘清边界,引导技术向善。

  崔鹏指出,犯错并非AI特有的风险,人也会犯错。“但人犯错大多数可控、可预测。而目前AI技术犯错的话是不可预测的,或者犯错后人们会发现其犯错机制是无法从技术层面解释的。这涉及到AI在决策和行为上的边界问题。”

  厘清边界具体包括AI需要明白它会什么、不会什么,以及人需要明白AI什么事能做、什么事不能做等问题。崔鹏认为,如不厘清边界,AI还会犯更多低级错误,带来更大风险。

  郭锐认为,目前AI遇到的伦理问题,实际上是因为它远未达到人类智能的程度,却已被赋予为人类做决策的责任,“还有人把AI技术当作借口,用科学的名义做不符合伦理的决策,这样做是不对的。需要人决策的地方应该由人决策”。

  2020年新冠肺炎疫情期间,英国用一套算法得出学生成绩,结果近40%的学生成绩低于教师的预估分数,导致很多学生与名校失之交臂。山世光说,有些人工智能模型或数据模型没有考虑到社会公平、优势累计恶果,导致看起来运算过程很严谨、结果很准,但却并不足以支持AI做出科学决策。

  有专家表示,这并非AI技术的错。夏华夏说,真正应承担社会责任的是使用AI技术的人、企业等。AI技术向善需要社会整体文明发展到一定阶段,形成良好氛围。张谦则提到,技术并不可怕,可以通过技术进一步发展解决技术存在的问题。

  山世光称:“说到底,我们还是希望AI技术能得到健康发展,满足对科技真、善、美的追求。”

(代小佩)

[编辑: 王航飞]
(本文来源:科技日报)
  • 科技金融时报
Copyright © 2014 kjjrw.com.cn. All rights reserved. 浙ICP备2024107310号
互联网新闻信息服务许可证 33120170005

浙公网安备33010602013724<

联系我们

地址:杭州市文一路115号
举报电话:0571-87089618
法律顾问:北京京师(杭州)律师事务所陈佳律师