• 守住产品底线,防备人工智能作恶

  • 发布日期:2021-01-06 03:43   来源:未知   阅读:

活动中,腾讯科学技术协会秘书长张谦表示,面对AI技术所引起的风险问题,首先应该关注的是守住AI产品底线,即防止技术作恶。

谈及AI尺度化的实际,中国国民大学法学院副传授、未来法治研究院社会责任和管理核心主任郭锐提到两个原则??人的基本好处原则和责任准则,“这两个原则的主旨是让AI的决策和举动尽可能通过人的干涉来避免对人的损害”。

除了守住底线,与会者还提到,要厘清边界,领导技术向善。

【编纂:王诗尧】

崔鹏指出,犯错并非AI特有的风险,人也会出错。“但人犯错大多数可控、可猜测。而目前AI技术犯错的话是不可预测的,西宁市完成55.5万元排污权交易,或者犯错后人们会发明其犯错机制是无奈从技术层面说明的。这波及到AI在决策和行动上的边界问题。”

在这方面,美团首席科学家夏华夏认为,法律法规方面需要做大批工作,包括制定AI行业的标准、标准,以及从国度层面完美、出台相关法律法规,从而对AI技术发展进行把控。

◎实习记者 代小佩

山世光称:“说到底,咱们仍是盼望AI技巧能得到健康发展,满意对科技真、善、美的寻求。”

厘清边界详细包含AI需要明确它会什么、不会什么,以及人需要清楚AI什么事能做、什么事不能做等问题。崔鹏认为,如不厘清边界,AI还会犯更多初级过错,带来更大风险。

“未来10?20年,AI技术将浸透至与人类亲密相关的范畴,比方医疗、司法、出产、金融科技等风险敏感型领域,AI技术假如犯错,就会造成较大体系风险。”2020年12月29日,在将来科学大奖周举行的“青年对话”运动中,清华大学计算机系长聘副教学、中国科协全国委员会委员崔鹏说。

有专家表现,这并非AI技术的错。夏华夏说,真正应承当社会责任的是应用AI技术的人、企业等。AI技术向善需要社会整体文化发展到必定阶段,构成良好气氛。张谦则提到,技术并不恐怖,能够通过技术进步发展解决技术存在的问题。

“徒法不足以自行。”郭锐坦言,法律自身也存在局限,躲避AI技术潜在危险,需管理者对AI技术有透辟的懂得,这样能力对其进行有效管制,“法律是树立容纳性社会的主要工具,法律界要跟企业、技术等方面专家配合,这样通过法律来对AI技术进行治理束缚的目的才干达成。”

“AI技术的风险管理需要科技工作者、企业管理者、政策制订者、相干法律专家以及投资人多方尽力。”中科院盘算所研讨员山世光说。

郭锐以为,目前AI碰到的伦理问题,实际上是由于它远未到达人类智能的水平,却已被赋予为人类做决策的义务,“还有人把AI技术当作借口,用迷信的名义做不合乎伦理的决议,这样做是错误的。须要人决策的处所应当由人决策”。

2020年新冠肺炎疫情期间,英国用套算法得出学天生绩,成果近40%的学生成就低于老师的预估分数,导致良多学生与名校失之交臂。山世光说,有些人工智能模型或数据模型不斟酌到社会公正、上风累计恶果,导致看起来运算进程很谨严、结果很准,但却并不足以支撑AI做出科学决策。

星界资本管理合伙人方远认为,各大中心数据平台处于AI风险管理的重要地位,“在互联网和大数据时期,大平台是数据的采集者也是守护者。务必要对数据使用权做出清楚界定,这对全部社会的AI发展有重要意思”,钱多多论坛