精品人妻一区二区乱码_欧美涩爱一区二区_国产精品高清在线观看93_成人爽成人免费视频_国产欧美中文字幕_好硬好湿好爽好深视频_久久大香香蕉国产_少妇一级婬片免费放真人_全黄性高视频_色狠狠一区二区三区香蕉,国产片在线观看天堂av,国产亚洲欧美日韩在线一区二区三区 ,国产亚洲中文在线字幕

法治

應(yīng)用AI招聘不能逾越法律邊界

2024/07/22 14:11 來(lái)源:工人日?qǐng)?bào)    閱讀:1.1萬(wàn)

  眼下,,在企業(yè)招聘過(guò)程中,,越來(lái)越多求職者在面試中面對(duì)的不是人類面試官,而是人工智能(AI)面試官,?!?023年中國(guó)網(wǎng)絡(luò)招聘市場(chǎng)發(fā)展研究報(bào)告》的統(tǒng)計(jì)顯示,,AI視頻面試的應(yīng)用場(chǎng)景已占到31.8%,。專業(yè)招聘平臺(tái)大力推動(dòng)人工智能招聘系統(tǒng)研發(fā)和應(yīng)用的背后,,是龐大的市場(chǎng)需求。

  AI招聘之所以受到青睞,,源于它的多種優(yōu)勢(shì),。首先是高效,,面對(duì)成千上萬(wàn)的簡(jiǎn)歷,AI算力比人力的篩選效率高很多,。其次是客觀,,AI擺脫了人的主觀偏見,對(duì)求職者的評(píng)價(jià)更加中立,。最后是低成本,,AI招聘節(jié)省了大量的時(shí)間、人力和物力成本,。在不斷發(fā)展過(guò)程中,,AI招聘系統(tǒng)越來(lái)越智能,從最初的簡(jiǎn)歷篩選到人崗匹配,,再到AI面試,,AI在招聘中能完成的任務(wù)越來(lái)越多,實(shí)踐中,,最新的AI面試系統(tǒng)已經(jīng)具備了個(gè)性化追問(wèn)功能,。

  但是,在享受AI招聘帶來(lái)的科技紅利同時(shí),,還應(yīng)當(dāng)警惕其可能帶來(lái)的負(fù)面效應(yīng),。面對(duì)智能招聘熱潮必須作出的冷思考是:在科技上有能力做到的,在法律上是否都允許,?AI招聘不是法外之地,,必須在法律的軌道上運(yùn)行,而這一點(diǎn)在技術(shù)迅猛發(fā)展的背景下常常被忽略,。筆者歸納出在現(xiàn)行法律框架下,,AI招聘過(guò)程中可能存在的法律風(fēng)險(xiǎn),并嘗試探索應(yīng)對(duì)之道,。

  第一,,透明度問(wèn)題。許多求職者不明白,,自己為什么被AI打了低分而出局,?這背后反映的是算法黑箱問(wèn)題。AI對(duì)求職者作出評(píng)價(jià)和決策的依據(jù)等算法運(yùn)行機(jī)制應(yīng)透明可釋,。招聘者負(fù)有對(duì)關(guān)鍵算法進(jìn)行公開的法律義務(wù),,以便于求職者理解的方式進(jìn)行解釋。從求職者的角度看,,法律已經(jīng)賦予了其算法解釋權(quán),,可拿起法律武器積極維護(hù)自身權(quán)益。

  第二,,公平性問(wèn)題,。AI可能對(duì)求職者作出不公正的評(píng)價(jià),,甚至引發(fā)算法歧視。算法歧視主要源于兩方面因素:一是招聘者在設(shè)計(jì)算法時(shí)有意植入帶有歧視性的參數(shù),,刻意排除某些求職群體,;二是數(shù)據(jù)訓(xùn)練或算法設(shè)計(jì)本身存在科學(xué)性缺陷。就業(yè)權(quán)是一項(xiàng)基本人權(quán),,AI招聘關(guān)系到求職者能否獲得工作,,因此招聘算法屬于高風(fēng)險(xiǎn)算法。AI招聘系統(tǒng)的設(shè)計(jì)者,、使用者除了不斷加強(qiáng)數(shù)據(jù)訓(xùn)練和改進(jìn)算法以提升其科學(xué)性之外,,還負(fù)有對(duì)招聘算法進(jìn)行周期性風(fēng)險(xiǎn)評(píng)估的法律義務(wù),應(yīng)通過(guò)評(píng)估發(fā)現(xiàn)并消除歧視性風(fēng)險(xiǎn),。對(duì)于遭受不公正對(duì)待的求職者,,可主張反歧視救濟(jì),既有的反歧視法對(duì)AI招聘仍然適用,。

  第三,,個(gè)人信息與人格尊嚴(yán)保護(hù)問(wèn)題。AI面試中的人臉識(shí)別,、語(yǔ)音分析,、情感識(shí)別等技術(shù)手段的運(yùn)用,不可避免地要大量收集求職者的個(gè)人信息,,其中包括人臉信息,、聲紋信息等敏感個(gè)人信息,這些信息的收集處理受到嚴(yán)格的法律限制,。招聘者須依據(jù)個(gè)人信息保護(hù)法的規(guī)定履行個(gè)人信息處理者的義務(wù),。一是對(duì)求職者信息的收集必須以明確的招聘目的為限制,不能為其他目的所使用,。二是遵循最小化原則,,以滿足招聘目的為必要限度,盡可能少收集個(gè)人信息,,對(duì)已收集的信息不能永久保存,,應(yīng)在招聘完成后的合理時(shí)間銷毀。三是應(yīng)就收集個(gè)人信息向求職者履行告知義務(wù)并征得其同意,。四是履行個(gè)人信息保護(hù)風(fēng)險(xiǎn)評(píng)估義務(wù),。五是對(duì)收集的信息采取脫敏化、去標(biāo)識(shí)化,、匿名化等保密措施,。對(duì)在AI面試中被收集的個(gè)人信息,求職者依法享有查閱、復(fù)制以及刪除的權(quán)利,。除了個(gè)人信息保護(hù)之外,,AI招聘還可能涉及人格尊嚴(yán)問(wèn)題,。值得關(guān)注的是,,根據(jù)新近頒布的歐盟《人工智能法案》,分析雇員情緒的人工智能系統(tǒng)因?qū)儆诓豢山邮艿娘L(fēng)險(xiǎn)等級(jí)而被禁止,,這恰恰是很多AI招聘系統(tǒng)宣稱的先進(jìn)技術(shù),。我國(guó)對(duì)此雖尚無(wú)明確禁止的立法,但是對(duì)于AI招聘可能給人格權(quán)帶來(lái)的挑戰(zhàn)應(yīng)當(dāng)持謹(jǐn)慎態(tài)度,。

  第四,,對(duì)AI的人力監(jiān)督問(wèn)題。在賦予AI招聘功能之后,,人類應(yīng)當(dāng)扮演什么角色值得反思,。由于AI的局限性可能導(dǎo)致的算法失準(zhǔn)、歧視等風(fēng)險(xiǎn),,招聘者不能完全袖手旁觀,,而應(yīng)做好AI監(jiān)督者。隨著技術(shù)的升級(jí),,AI在招聘中的角色從最初的輔助性工作逐漸向獨(dú)立作出自動(dòng)化決策的方向發(fā)展,。個(gè)人信息保護(hù)法第24條規(guī)定,如果一項(xiàng)決定是僅通過(guò)自動(dòng)化決策的方式作出的且對(duì)于個(gè)人權(quán)益有重大影響,,那么個(gè)人有權(quán)利拒絕該決定,。招聘中的自動(dòng)化決策影響到勞動(dòng)者的就業(yè)權(quán),顯然符合該規(guī)定,。這意味著,,招聘者應(yīng)當(dāng)對(duì)AI形成的自動(dòng)化決策作出人工審查。

  AI招聘是技術(shù)發(fā)展的成果,,提高了工作效率,,但其必須在法律設(shè)定的邊界內(nèi)運(yùn)行,實(shí)際招聘者才應(yīng)是監(jiān)督者和最終決策者,。(田野 天津大學(xué)法學(xué)院教授)

責(zé)任編輯:劉萌萌

社區(qū)文化網(wǎng)