近日,工業(yè)和信息化部聯(lián)合九個部門共同發(fā)布了《人工智能科技倫理審查與服務(wù)辦法(試行)》。該辦法明確要求,在開展人工智能相關(guān)科技活動時,必須將倫理規(guī)范貫穿于整個流程之中,確保技術(shù)發(fā)展與倫理道德同步推進。
根據(jù)新規(guī),人工智能研發(fā)與應(yīng)用需遵循七大核心倫理原則:以增進人類福祉為根本目標,尊重生命權(quán)利與人格尊嚴;堅持公平公正原則,避免算法歧視;通過合理控制風險保障技術(shù)安全;保持研發(fā)過程公開透明,主動接受社會監(jiān)督;嚴格保護用戶隱私與數(shù)據(jù)安全;確保技術(shù)系統(tǒng)可控可信,防范技術(shù)濫用風險。這些原則既體現(xiàn)了對技術(shù)創(chuàng)新的包容,也強化了對公共利益的守護。
辦法特別強調(diào),所有從事人工智能研發(fā)、應(yīng)用及服務(wù)的單位和個人,必須嚴格遵守國家憲法、法律法規(guī)及相關(guān)規(guī)定。在開展科技活動前,需主動進行倫理審查,建立風險評估機制,對可能產(chǎn)生的倫理風險提前制定應(yīng)對預(yù)案。監(jiān)管部門將通過定期檢查、隨機抽查等方式,確保倫理規(guī)范落地實施。























