近年來,利用算法進(jìn)行AI招聘已成為職場中的一大新熱點,,如何規(guī)避AI算法可能帶來的歧視問題成為保障就業(yè)公平面臨的一個新問題,。近日,在上海市政協(xié)的一場重點提案督辦專題調(diào)研暨辦理推進(jìn)會上,,監(jiān)管部門,、行業(yè)專家以及業(yè)內(nèi)人士表示,防范AI就業(yè)歧視,,需要加強(qiáng)對算法濫用的監(jiān)管,、強(qiáng)化技術(shù)手段,多方面共同努力消除隱藏在算法背后的歧視,。(9月12日《工人日報》)
當(dāng)前,,我國互聯(lián)網(wǎng)招聘平臺快速發(fā)展。數(shù)據(jù)顯示,一些頭部平臺累計服務(wù)求職者已超過1億人次,,求職有效簡歷數(shù)超過1.5億份,,認(rèn)證企業(yè)接近1000萬家。利用人工智能技術(shù)進(jìn)行簡歷篩選和人力資源開發(fā)正在成為招聘領(lǐng)域發(fā)展趨勢,,多家招聘平臺紛紛探索通過AI算法為數(shù)據(jù)賦能,。
與傳統(tǒng)人力招聘相比,AI招聘可以大大提升人力資源開發(fā)效能,,更好地對應(yīng)聘者能力與崗位需求進(jìn)行匹配,。不過,任何技術(shù)都是把雙刃劍,。從理論上講,,AI招聘可以避免人為因素干擾,更加公平公正,,但在實際操作中,,倘若算法設(shè)置不夠科學(xué),反而會在客觀上造成“算法歧視”,,影響就業(yè)公平,。更有甚者,一些人可以通過編輯算法,,將對求職者的偏見和歧視巧妙地植入AI招聘中,,從而逃避就業(yè)歧視責(zé)任,讓系統(tǒng)背鍋,。
這種擔(dān)心并非多余,。事實上,在人工智能發(fā)展歷程中,,“性別歧視”已經(jīng)不是一個新詞,。2014年,美國亞馬遜公司開發(fā)了用于簡歷篩選的人工智能程序,,發(fā)現(xiàn)該系統(tǒng)存在“性別歧視”,,通常將男性的簡歷視為更合適的候選人。最終,,亞馬遜解散了該開發(fā)團(tuán)隊,,棄用了這個模型。事后進(jìn)一步查實,,該系統(tǒng)選取了10年間的5萬個簡歷,,對涉及的關(guān)鍵詞按重要程度進(jìn)行排序,這些簡歷中大部分求職者為男性,,導(dǎo)致AI誤以為沒有這類關(guān)鍵詞的女性簡歷不那么重要,。
避免AI招聘夾帶歧視“私貨”,,首先要強(qiáng)化技術(shù)手段,確保算法公正,。近年來,,國家網(wǎng)信辦等部門先后出臺了《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》《關(guān)于加強(qiáng)互聯(lián)網(wǎng)信息服務(wù)算法綜合治理的指導(dǎo)意見》,持續(xù)開展企業(yè)算法排查整治專項行動,?!吨笇?dǎo)意見》要求,,建立算法備案制度,,梳理算法備案基本情況,健全算法分級分類體系,,明確算法備案范圍,,有序開展備案工作;組織建立專業(yè)技術(shù)評估隊伍,,深入分析算法機(jī)制機(jī)理,,評估算法設(shè)計、部署和使用等應(yīng)用環(huán)節(jié)的缺陷和漏洞,,研判算法應(yīng)用產(chǎn)生的意識形態(tài),、社會公平、道德倫理等安全風(fēng)險,,提出針對性應(yīng)對措施,。
有關(guān)部門應(yīng)盡快構(gòu)建算法安全風(fēng)險監(jiān)測、算法安全評估,、科技倫理審查,、算法備案管理和涉算法違法違規(guī)行為處置等多維一體的監(jiān)管體系,進(jìn)一步規(guī)范算法生態(tài),,確保導(dǎo)向正確,、公平公正。
其次,,加強(qiáng)執(zhí)法監(jiān)管,,提高違法成本。AI招聘歧視具有一定隱蔽性,,有關(guān)部門必須加強(qiáng)監(jiān)管,,打消一些企業(yè)的僥幸心理。前不久美國首起AI招聘歧視案中,,我國在線教育機(jī)構(gòu)麥奇教育科技與美國平等就業(yè)機(jī)會委員會達(dá)成和解,。麥奇教育科技因招聘軟件算法會自動拒絕55歲以上的女性和60歲以上的男性求職者,被判賠36.5萬美元,,用于補(bǔ)償被拒的應(yīng)聘者,。反觀國內(nèi),,有關(guān)部門也應(yīng)加大線上執(zhí)法檢查力度,對于涉嫌就業(yè)歧視的企業(yè)予以依法處罰,,營造風(fēng)清氣正的AI招聘環(huán)境,。
(編輯:月兒)
