精品人妻一区二区乱码_欧美涩爱一区二区_国产精品高清在线观看93_成人爽成人免费视频_国产欧美中文字幕_好硬好湿好爽好深视频_久久大香香蕉国产_少妇一级婬片免费放真人_全黄性高视频_色狠狠一区二区三区香蕉,国产片在线观看天堂av,国产亚洲欧美日韩在线一区二区三区 ,国产亚洲中文在线字幕

法治

應(yīng)用AI招聘不能逾越法律邊界

2024/07/22 14:11 來源:工人日報 閱讀:1.3萬

  眼下,,在企業(yè)招聘過程中,,越來越多求職者在面試中面對的不是人類面試官,,而是人工智能(AI)面試官,。《2023年中國網(wǎng)絡(luò)招聘市場發(fā)展研究報告》的統(tǒng)計顯示,,AI視頻面試的應(yīng)用場景已占到31.8%,。專業(yè)招聘平臺大力推動人工智能招聘系統(tǒng)研發(fā)和應(yīng)用的背后,是龐大的市場需求,。

  AI招聘之所以受到青睞,,源于它的多種優(yōu)勢。首先是高效,,面對成千上萬的簡歷,AI算力比人力的篩選效率高很多,。其次是客觀,,AI擺脫了人的主觀偏見,對求職者的評價更加中立,。最后是低成本,,AI招聘節(jié)省了大量的時間、人力和物力成本,。在不斷發(fā)展過程中,,AI招聘系統(tǒng)越來越智能,,從最初的簡歷篩選到人崗匹配,再到AI面試,,AI在招聘中能完成的任務(wù)越來越多,,實踐中,最新的AI面試系統(tǒng)已經(jīng)具備了個性化追問功能,。

  但是,,在享受AI招聘帶來的科技紅利同時,還應(yīng)當(dāng)警惕其可能帶來的負面效應(yīng),。面對智能招聘熱潮必須作出的冷思考是:在科技上有能力做到的,,在法律上是否都允許?AI招聘不是法外之地,,必須在法律的軌道上運行,,而這一點在技術(shù)迅猛發(fā)展的背景下常常被忽略。筆者歸納出在現(xiàn)行法律框架下,,AI招聘過程中可能存在的法律風(fēng)險,,并嘗試探索應(yīng)對之道。

  第一,,透明度問題,。許多求職者不明白,自己為什么被AI打了低分而出局,?這背后反映的是算法黑箱問題,。AI對求職者作出評價和決策的依據(jù)等算法運行機制應(yīng)透明可釋。招聘者負有對關(guān)鍵算法進行公開的法律義務(wù),,以便于求職者理解的方式進行解釋,。從求職者的角度看,法律已經(jīng)賦予了其算法解釋權(quán),,可拿起法律武器積極維護自身權(quán)益,。

  第二,公平性問題,。AI可能對求職者作出不公正的評價,,甚至引發(fā)算法歧視。算法歧視主要源于兩方面因素:一是招聘者在設(shè)計算法時有意植入帶有歧視性的參數(shù),,刻意排除某些求職群體,;二是數(shù)據(jù)訓(xùn)練或算法設(shè)計本身存在科學(xué)性缺陷。就業(yè)權(quán)是一項基本人權(quán),,AI招聘關(guān)系到求職者能否獲得工作,,因此招聘算法屬于高風(fēng)險算法。AI招聘系統(tǒng)的設(shè)計者、使用者除了不斷加強數(shù)據(jù)訓(xùn)練和改進算法以提升其科學(xué)性之外,,還負有對招聘算法進行周期性風(fēng)險評估的法律義務(wù),,應(yīng)通過評估發(fā)現(xiàn)并消除歧視性風(fēng)險。對于遭受不公正對待的求職者,,可主張反歧視救濟,,既有的反歧視法對AI招聘仍然適用。

  第三,,個人信息與人格尊嚴保護問題,。AI面試中的人臉識別、語音分析,、情感識別等技術(shù)手段的運用,,不可避免地要大量收集求職者的個人信息,其中包括人臉信息,、聲紋信息等敏感個人信息,,這些信息的收集處理受到嚴格的法律限制。招聘者須依據(jù)個人信息保護法的規(guī)定履行個人信息處理者的義務(wù),。一是對求職者信息的收集必須以明確的招聘目的為限制,,不能為其他目的所使用。二是遵循最小化原則,,以滿足招聘目的為必要限度,,盡可能少收集個人信息,對已收集的信息不能永久保存,,應(yīng)在招聘完成后的合理時間銷毀,。三是應(yīng)就收集個人信息向求職者履行告知義務(wù)并征得其同意。四是履行個人信息保護風(fēng)險評估義務(wù),。五是對收集的信息采取脫敏化,、去標識化、匿名化等保密措施,。對在AI面試中被收集的個人信息,,求職者依法享有查閱、復(fù)制以及刪除的權(quán)利,。除了個人信息保護之外,,AI招聘還可能涉及人格尊嚴問題。值得關(guān)注的是,,根據(jù)新近頒布的歐盟《人工智能法案》,,分析雇員情緒的人工智能系統(tǒng)因?qū)儆诓豢山邮艿娘L(fēng)險等級而被禁止,這恰恰是很多AI招聘系統(tǒng)宣稱的先進技術(shù),。我國對此雖尚無明確禁止的立法,但是對于AI招聘可能給人格權(quán)帶來的挑戰(zhàn)應(yīng)當(dāng)持謹慎態(tài)度。

  第四,,對AI的人力監(jiān)督問題,。在賦予AI招聘功能之后,人類應(yīng)當(dāng)扮演什么角色值得反思,。由于AI的局限性可能導(dǎo)致的算法失準,、歧視等風(fēng)險,招聘者不能完全袖手旁觀,,而應(yīng)做好AI監(jiān)督者,。隨著技術(shù)的升級,AI在招聘中的角色從最初的輔助性工作逐漸向獨立作出自動化決策的方向發(fā)展,。個人信息保護法第24條規(guī)定,,如果一項決定是僅通過自動化決策的方式作出的且對于個人權(quán)益有重大影響,那么個人有權(quán)利拒絕該決定,。招聘中的自動化決策影響到勞動者的就業(yè)權(quán),,顯然符合該規(guī)定。這意味著,,招聘者應(yīng)當(dāng)對AI形成的自動化決策作出人工審查,。

  AI招聘是技術(shù)發(fā)展的成果,提高了工作效率,,但其必須在法律設(shè)定的邊界內(nèi)運行,,實際招聘者才應(yīng)是監(jiān)督者和最終決策者。(田野 天津大學(xué)法學(xué)院教授)

責(zé)任編輯:劉萌萌

社區(qū)文化網(wǎng)