新聞 > 網聞 > 正文

只是因為我姓王,AI就把我的簡歷扔進了垃圾桶

前兩天彭博社做了個實驗,大致意思就是想測試一下ChatGPT簡歷篩選的時候有沒有歧視現象。

矽基君也做了個類似的實驗,就想看看GPT會根據什麼邏輯給各種不同背景的簡歷排序。

我們隨機生成了各種類型的簡歷,畢業院校有清北復交,工作經歷也是各種大廠。把眾多簡歷發給ChatGPT後,矽基君發現它對學校、公司有一個默認排序。

在ChatGPT眼中,騰訊>阿里>百度>字節;清華>北大>浙大>復旦>交大

我們看一下ChatGPT的解釋。

也就是說,AI分析簡歷的時候也會有一套自己的標準,那麼除了學校、公司這種因素外,AI會不會存在其他的歧視呢?

沒錯,你能想到的那些歧視,它都有。

彭博社的AI招聘歧視實驗中,發現ChatGPT簡歷篩選的時候存在對人種的歧視現象。

實驗靈感來源於一項評估算法偏見及招聘歧視的經典研究,通過使用虛構姓名和簡歷,分析AI是否存在招聘歧視。

具體實驗如下。

彭博社創建了數份具有相同教育背景、經驗年限和職位要求的簡歷。唯一的區別是簡歷上的名字採用了具有濃厚人群特色的名字。

比如美國白人名字KELLY WEISS、WYATT NOVAK,亞裔名字STEVE TRUONG、TONY LU等。

隨後,記者利用ChatGPT來對簡歷進行排名,確定哪份簡歷更適合崗位。

如果ChatGPT對所有簡歷一視同仁,那麼每個人群都應該有接近12.5%的機會成為最佳候選人,但事實並非如此。

在數千次排序後,實驗發現,ChatGPT在不同崗位上,對不同人群有偏愛。

金融分析師崗位候選人選擇上,亞裔女性/男性獲得更多偏愛,遠高於黑人男性/女性。

零售經理崗位上,亞裔女性和西班牙裔女性受到偏愛更多,白人男性受到歧視。

人力資源崗位上,西班牙裔女性遙遙領先,整體來看,在任何人種中女性都比男性受到偏愛。

軟體工程師崗位中,白人女性更受到偏愛,黑人女性受到歧視最多。

出現這樣情況的原因,可能在於訓練ChatGPT的各種數據中,本身就包含了歧視,AI會將此進一步放大。

如果提前告訴AI不要歧視亞洲人、黑人,AI也同樣不會做出公正的判斷。因為AI會將特徵轉移形成新的歧視。

北卡羅來納大學教授 Ajunwa解釋說,招聘算法不會直接表明它喜歡某個人群,而會通過偏愛某些其它內容影響結果。

舉個不恰當的例子,算法會偏向喜歡吃甜豆腐腦的候選人,喜歡甜豆腐腦的候選人往往是南方人,從而形成了對北方人的歧視。算法並不會直接說,它歧視北方人,歧視沒有消失了,只是它被隱藏了。

那麼,大模型性能再好點,是不是就可以避免歧視呢?答案也是否定的。

彭博社對GPT4進行了同樣的測試,結果發現GPT4也有很嚴重的偏見。當Impact Ratio值小於0.8,就代表AI對於這一人群有偏見。

以軟體工程師為例,GPT3.5對於黑人女性有偏見,而GPT4對於白人男性和亞洲女性有偏見。

那麼問題來了,既然ChatGPT有簡歷歧視,作為求職者該怎麼辦。反抗算法歧視,不如知己知彼,搞定算法。既然算法喜歡吃甜豆腐腦的人,那麼大家都在簡歷里寫不喜歡咸豆腐腦。

類似甜豆腐腦這樣的詞彙有多少,也許只有AI自己知道了。因此,求職的時候,我們多用用AI。

我們先來了解一下目前企業在招聘環節中的AI使用情況。

根據《2023AI在企業人力資源中的應用白皮書》中調查,近一半企業會在簡歷篩選和解析中用到AI,這也是求職者最該關注的地方。

在企業「簡歷解析和篩選」時,會用AI將格式和模板不一的簡歷進行結構化處理,統一模板、提取關鍵內容方便hr快速瀏覽和查看。

在「智能簡歷篩選和雙向推薦」這一步,AI會通過語義理解判斷求職者是否適合該崗位,簡單來說就是將合適的求職者推薦給hr,將匹配的職位推薦給求職者。

也就是說,求職者的簡歷內容,在形式上要方便AI識別,不要別出心裁的搞一些藝術字。在文本語序上儘量說得簡單有條理,讓AI容易看懂,不要挑戰AI的理解能力。

以往我們在寫簡歷的時候,經常會說要突出重點,要讓hr眼前一亮,在AI時代,簡歷就要讓AI眼前一亮。

矽基君總結了幾個比較好用的方法,分享一下。

如果你已經看中某個崗位,那麼你可以把崗位要求發送給ChatGPT,讓它根據崗位要求修改你的簡歷。

其次,給ChatGPT分享幾個比較優質的簡歷,讓其參考。

最後,和ChatGPT交流的時候,要多使用「突出重點」、「使用關鍵詞」這種明確的指令。

我們來具體看個例子。假設你想面試AI產品經理崗位,但現在簡歷一篇空白,這時候你就可以尋求ChatGPT的幫助。

首先,可以向ChatGPT諮詢一下建議,可以看到它會洋洋灑灑給你寫一大堆,包括一些沒什麼用的"個人信息",以及具有參考價值的「工作經驗」「專業技能」等。

接下來,可以讓ChatGPT給你舉幾個例子,如果你恰好有相關的經驗,就可以直接修改。

看完參考後,我們可以進入崗位詳情,把職位要求發送給ChatGPT,讓它根據需求,重新寫更加詳細的案例。

當然,矽基君知道你們在想什麼,如何用ChatGPT憑空生成一份簡歷?打鐵還需自身硬,ChatGPT也沒辦法無中生有,生了也不敢用啊。

人類對於偏見和歧視會下意識的進行自我反思,但AI不會,而且更要命的是ChatGPT這樣的黑箱AI,它們偏見往往非常隱蔽,人們很難發現。

早在這一波AI浪潮前,算法就存在歧視的問題。據路透社報導,亞馬遜使用公司十年來收集的簡歷建立了一個篩選算法,但這些簡歷往往來自男性,這個簡歷篩選算法最終學會了歧視女性。

如今算法已經深入我們生活的方方面面和物理規則一樣重要,但算法不會像物理規則那樣平等的對待每一個人。

那麼面對AI的控制,我們能做的也許只有尋找AI的喜好,並不斷的適應它。

全文完。

責任編輯: 李冬琪  來源:果殼 轉載請註明作者、出處並保持完整。

本文網址:https://tw.aboluowang.com/2024/0324/2034486.html