美女的视频黄a免费,国产成人手机高清在线观看网站,美女高潮视频免费在线观看,亚洲国产精品无码久久98

首頁 新聞 > 洞察 > 正文

守住AI產品底線,避免技術作惡

“未來10-20年,AI技術將滲透至與人密切相關的領域,比如醫(yī)療、司法、生產、金融科技等,這些可以說是風險敏感型領域,AI技術如果犯錯會造成較大系統(tǒng)風險。”12月29日,在未來科學大獎周舉辦的“青年對話”活動中,清華大學計算機系長聘副教授、中國科協(xié)全國委員會委員崔鵬說。

對話中,騰訊科學技術協(xié)會秘書長張謙表示,面對AI技術所引起的風險問題,首先最應該關注的是守住AI產品底線,即避免技術作惡。

在這方面,美團首席科學家夏華夏認為,法律法規(guī)方面需要做很多工作,包括制定AI行業(yè)的標準、規(guī)范,以及從國家層面完善、出臺相關法律法規(guī),從而對AI技術發(fā)展進行把控。

談及AI標準化的實踐,中國人民大學法學院副教授、未來法治研究院社會責任和治理中心主任郭銳提到兩個原則,即人的根本利益原則和責任原則,“這兩個原則的宗旨是讓AI的決策和行動盡可能通過人的干預來避免對人的傷害”。

“徒法不足以自行。”郭銳坦言,法律本身也存在局限。規(guī)避AI技術潛在風險,需管理者對AI技術有很好理解力,能對其進行很好管制。“法律是建立包容性社會的重要的工具,法律界和企業(yè)、技術等人士合作,目標才能達成。”

星界資本管理合伙人方遠認為,各大核心的數據平臺處于AI風險管理的重要位置,“在互聯(lián)網和大數據時代,大平臺是數據的采集者也是守護者。對數據使用權做清晰界定,對整個社會的AI發(fā)展有重要意義”。有人舉例,企業(yè)通過大數據“殺熟”即有違社會道德。

“AI技術的風險治理需要科技工作者、企業(yè)管理者、政策制定者、相關法律專家以及投資人多方努力。”中科院計算所研究員山世光說。

除了守住底線,與會者還提到,要厘清邊界,引導技術向善。

崔鵬指出,犯錯并非AI特有的風險,人也會犯錯。“但,人犯錯大多數可控、可預測。而目前AI技術犯錯的話是不可預測的,或者犯錯后是不可解釋的,這就很可怕。這涉及到AI在決策和行為上的邊界問題。”

厘清邊界的具體含義包括AI需要明白它會什么、不會什么,以及人需要明白AI什么事能做、什么不能做,等。崔鵬認為,如不厘清邊界,AI還會犯更多低級錯誤,帶來更大風險。

郭銳認為,目前AI遇到的倫理問題,實際上是因為它遠未達到人類智能的程度,卻已被賦予為人類做決策的責任。“還有人把AI技術當作借口,用科學的名義做不符合倫理的決策,這樣做不對。需要人決策的地方應該由人決策。”

2020年疫情期間,英國用一套算法得出學生成績,結果近40%的學生成績低于教師的預估分數,導致很多學生與名校失之交臂。山世光說,有些人工智能模型或數據模型沒有考慮到社會公平、優(yōu)勢累計惡果,導致看起來結果很準,但并不足以支持AI作出科學決策。

有專家表示,這并非AI技術的錯。夏華夏說,真正應承擔社會責任的是使用AI技術的人、企業(yè)、社會等。AI技術向善需要社會整體文明發(fā)展到一定階段,形成良好氛圍。張謙則提到,技術并不可怕,可以通過技術進一步發(fā)展解決技術存在的問題。

山世光稱:“說到底,我們還是希望AI技術能得到健康發(fā)展,滿足對科技真、善、美的追求。”(科技日報實習記者 代小佩)

關鍵詞: AI產品底線 技術作惡

最近更新

關于本站 管理團隊 版權申明 網站地圖 聯(lián)系合作 招聘信息

Copyright © 2005-2018 創(chuàng)投網 - www.28178.com.cn All rights reserved
聯(lián)系我們:33 92 950@qq.com
豫ICP備2020035879號-12