黄网站免费人口观看,亚洲天堂国产,日本在线视频精品,a黄视频,黄色福利午夜视频,亚洲免费综合色在线视频,嫩草视频一区二区三区在线观看

中國(guó)西藏網(wǎng) > 即時(shí)新聞 > 國(guó)內(nèi)

警惕“AI招聘”背后的就業(yè)歧視

發(fā)布時(shí)間:2023-09-13 11:18:00來(lái)源: 新京報(bào)

  ■ 社論

  在涉及機(jī)會(huì)公平、權(quán)益保障等領(lǐng)域,不能讓效率成為放大不平等的工具。

  “你的簡(jiǎn)歷可能根本過(guò)不了人工智能(AI)這一關(guān)?!?/p>

  據(jù)《工人日?qǐng)?bào)》報(bào)道,利用算法進(jìn)行“AI招聘”已成為職場(chǎng)中的一大新熱點(diǎn),如何規(guī)避AI算法可能帶來(lái)的歧視問(wèn)題成為保障就業(yè)公平面臨的一個(gè)新問(wèn)題。近日,上海市政協(xié)在一場(chǎng)重點(diǎn)提案督辦專(zhuān)題調(diào)研暨辦理推進(jìn)會(huì)上,就針對(duì)這一問(wèn)題進(jìn)行了重點(diǎn)討論,旨在通過(guò)加強(qiáng)監(jiān)管、強(qiáng)化技術(shù)手段等,更好維護(hù)勞動(dòng)者權(quán)益。

  當(dāng)下,大數(shù)據(jù)、大模型等AI算法,正不斷進(jìn)入各場(chǎng)景進(jìn)行探索應(yīng)用,互聯(lián)網(wǎng)招聘平臺(tái)也是其中之一。而利用AI技術(shù)進(jìn)行簡(jiǎn)歷篩選和人力資源開(kāi)發(fā),也被視為當(dāng)前招聘領(lǐng)域的發(fā)展趨勢(shì)。

  在勞動(dòng)力就業(yè)市場(chǎng)加深依賴(lài)“AI”做決策的背景下,潛伏在A(yíng)I算法背后的就業(yè)歧視等問(wèn)題不容忽視。提前針對(duì)勞動(dòng)者權(quán)益保護(hù)等關(guān)鍵議題公開(kāi)討論,是公共政策應(yīng)對(duì)技術(shù)挑戰(zhàn)的應(yīng)有之策。

  從技術(shù)特征上看,AI短期內(nèi)無(wú)法代替自主決策,更多是以效率提升工具的方式在各行業(yè)發(fā)揮作用。但隨著AI不斷突破封閉場(chǎng)景,進(jìn)入人與社會(huì)互動(dòng)的多個(gè)領(lǐng)域,相關(guān)的倫理、權(quán)益保護(hù)等復(fù)雜問(wèn)題,也成了技術(shù)發(fā)展的潛在風(fēng)險(xiǎn)。

  以就業(yè)歧視來(lái)看,AI算法本身不具備歧視的動(dòng)機(jī)與能力,但在本身就存在潛在就業(yè)歧視的環(huán)境之中,AI可能會(huì)成為部分偏見(jiàn)的放大器。AI提升效率的本質(zhì)邏輯,是結(jié)合數(shù)據(jù)積累和運(yùn)算能力,給予使用者以最符合其期待的答案。

  那么,倘若一個(gè)原本就帶有性別、地域、年齡等偏見(jiàn)的企業(yè)招聘者,再利用這一算法系統(tǒng)進(jìn)行簡(jiǎn)歷篩選,那么客觀(guān)上就在流程中創(chuàng)造了一個(gè)“歧視信息繭房”:能被算法檢索和推送的,都是經(jīng)過(guò)偏見(jiàn)過(guò)濾后的簡(jiǎn)歷。

  在這樣的情境之中,AI首先成了放大偏見(jiàn)的工具,效率提升的同時(shí),也提高了“就業(yè)歧視”的范圍與傷害。其次,AI幫助部分招聘者進(jìn)行了“道德回避”,即原本應(yīng)承擔(dān)倫理道德風(fēng)險(xiǎn)的個(gè)體,可以在這一過(guò)程中將全部的偏見(jiàn)歧視問(wèn)題,歸結(jié)為“算法的錯(cuò)”。

  這就使得原本就相對(duì)隱形的“歧視”問(wèn)題變得更加隱形。在共同的監(jiān)管和社會(huì)輿論壓力下,可能不會(huì)有任何一個(gè)AI工具公開(kāi)將涉嫌歧視的標(biāo)簽作為“過(guò)濾選項(xiàng)”,但算法推薦“討好使用者”的技術(shù)特征,卻使得這一過(guò)程在實(shí)踐中難以完全避免。

  換言之,一個(gè)有嚴(yán)重就業(yè)歧視的招聘者,可能會(huì)訓(xùn)練出一個(gè)“更懂我的偏見(jiàn)和喜好”的算法模型。

  事實(shí)上,不只是在就業(yè)招聘領(lǐng)域,在多數(shù)處理“人的問(wèn)題”的領(lǐng)域中,都可能存在類(lèi)似問(wèn)題。而旨在提升效率的科技進(jìn)步,不能以顛覆、挑戰(zhàn)人類(lèi)社會(huì)賴(lài)以生存的倫理底線(xiàn)為代價(jià),尤其在涉及機(jī)會(huì)公平、權(quán)益保障等領(lǐng)域,更不能讓效率成為放大不平等的工具。

  引入外部監(jiān)督,同時(shí)用技術(shù)手段解決潛在問(wèn)題,是解決技術(shù)進(jìn)步與引發(fā)社會(huì)問(wèn)題之間矛盾的兩個(gè)主要手段。

  在上述的調(diào)研推進(jìn)會(huì)上,與會(huì)者也提出了讓勞動(dòng)者參與算法治理、避免算法濫用等社會(huì)化監(jiān)管的建議。引入外部的充分監(jiān)督,尤其是讓相關(guān)利益主體參與其中,推動(dòng)算法的公開(kāi)透明,是值得效仿與鼓勵(lì)的做法。

  而從根本上看,可以進(jìn)一步討論,在相關(guān)的算法規(guī)則中納入對(duì)公平等價(jià)值觀(guān)的紅線(xiàn)規(guī)則。比如,在與使用者互動(dòng)中,對(duì)疑似歧視的使用行為本身進(jìn)行定義、監(jiān)測(cè)和限制,甚至可以設(shè)置算法推薦的底線(xiàn)機(jī)制。

  再比如,在推薦規(guī)則之中,必須實(shí)現(xiàn)性別、學(xué)歷等比例,最大程度確保每一個(gè)求職者都有同等被看見(jiàn)的機(jī)會(huì)。

  防止技術(shù)對(duì)弱勢(shì)群體造成沖擊,既要未雨綢繆,又需在探索中反復(fù)測(cè)試技術(shù)手段的最優(yōu)解,這是擺在各行各業(yè)面前的新挑戰(zhàn)。

  唯有小心構(gòu)筑起公共政策的防火墻,讓AI既是社會(huì)生產(chǎn)力解放與提升的工具,同時(shí)也能成為維護(hù)社會(huì)公平正義底線(xiàn)的幫手,這才是科技進(jìn)步的長(zhǎng)期價(jià)值與方向所在。

(責(zé)編:陳濛濛)

版權(quán)聲明:凡注明“來(lái)源:中國(guó)西藏網(wǎng)”或“中國(guó)西藏網(wǎng)文”的所有作品,版權(quán)歸高原(北京)文化傳播有限公司。任何媒體轉(zhuǎn)載、摘編、引用,須注明來(lái)源中國(guó)西藏網(wǎng)和署著作者名,否則將追究相關(guān)法律責(zé)任。