kā izmantot mākslīgo intelektu darbā pieņemšanā

Kā izmantot mākslīgo intelektu darbā pieņemšanā

Mākslīgais intelekts var palīdzēt, bet tikai tad, ja to izturēsieties pret elektroinstrumentu, nevis burvju nūjiņu. Pareizi izmantots, tas paātrina resursu meklēšanu, uzlabo konsekvenci un kandidātu pieredzi. Nepareizi izmantots… tas nemanāmi mazina apjukumu, aizspriedumus un juridisko risku. Jautri.

Apskatīsim, kā izmantot mākslīgo intelektu darbā pieņemšanas procesā tā, lai tas būtu patiešām noderīgi, cilvēka labā un attaisnojami. (Un ne biedējoši. Lūdzu, ne biedējoši.)

Raksti, kurus jūs varētu vēlēties izlasīt pēc šī raksta:

🔗 Mākslīgā intelekta darbā pieņemšanas rīki pārveido mūsdienu darbā pieņemšanu
Kā mākslīgā intelekta platformas paātrina un uzlabo lēmumu pieņemšanu darbā.

🔗 Bezmaksas mākslīgā intelekta rīki personāla atlases komandām
Labākie bezmaksas risinājumi, lai racionalizētu un automatizētu darbā pieņemšanas darbplūsmas.

🔗 Mākslīgā intelekta prasmes, kas iespaido personāla atlases vadītājus
Kuras mākslīgā intelekta prasmes patiesībā izceļas CV?

🔗 Vai jums vajadzētu atteikties no CV pārbaudes mākslīgā intelekta ietvaros?
Automatizētu pieņemšanas darbā sistēmu neizmantošanas plusi, mīnusi un riski.


Kāpēc mākslīgais intelekts vispār parādās darbā pieņemšanas procesā (un ko tas īsti dara) 🔎

Lielākā daļa “mākslīgā intelekta pieņemšanas darbā” rīku iedalās dažās kategorijās:

  • Avotu meklēšana : kandidātu atrašana, meklēšanas terminu paplašināšana, prasmju saskaņošana ar lomām

  • Atlase : CV analīze, pretendentu ranžēšana, iespējamo atbilstību atzīmēšana

  • Novērtējumi : prasmju testi, darba paraugi, darba simulācijas, dažreiz video darbplūsmas

  • Interviju atbalsts : strukturētas jautājumu bankas, piezīmju kopsavilkums, punktu skaitīšanas atgādinājumi

  • Darbības : plānošana, kandidātu jautājumu un atbilžu tērzēšana, statusa atjauninājumi, piedāvājumu darbplūsma

Viens realitātes pārbaudījums: mākslīgais intelekts reti kad “pieņem lēmumu” vienā mirklī. Tas ietekmē… pamudina… filtrē… nosaka prioritātes. Kas joprojām ir liela problēma, jo praksē rīks var kļūt par atlases procedūru pat tad, ja cilvēki “tehniski” ir iesaistīti šajā procesā. ASV EEOC ir skaidri norādījusi, ka algoritmiskie lēmumu rīki, ko izmanto, lai pieņemtu vai informētu lēmumus par nodarbinātību, var izraisīt tos pašus vecos atšķirīgos/negatīvās ietekmes jautājumus, un ka darba devēji var palikt atbildīgi pat tad, ja rīku ir izveidojis vai pārvalda pārdevējs. [1]

 

Mākslīgais intelekts darbā pieņemšanā

Minimāli dzīvotspējīga “laba” mākslīgā intelekta atbalstīta pieņemšanas darbā iestatīšana ✅

Labai mākslīgā intelekta darbā pieņemšanas sistēmai ir dažas neapspriežamas lietas (jā, tās ir nedaudz garlaicīgas, bet garlaicība ir droša):

  • Ar darbu saistītie ievades dati : novērtējiet ar lomu saistītos signālus, nevis vibrācijas

  • Izskaidrojamība, ko varat atkārtot skaļi : ja kandidāts jautā “kāpēc”, jums ir sakarīga atbilde.

  • Cilvēka uzraudzība, kam ir nozīme : nevis ceremoniāla klikšķināšana, bet gan reālas pilnvaras to ignorēt

  • Validācija + uzraudzība : testu rezultāti, novērošanas novirzes, uzskaites veikšana

  • Kandidātiem draudzīgs dizains : skaidri soļi, pieejams process, minimāla bezjēdzība

  • Privātuma aizsardzība pēc noklusējuma : datu minimizācija, saglabāšanas noteikumi, drošība + piekļuves kontrole

Ja vēlaties stabilu mentālo modeli, aizņemieties no NIST mākslīgā intelekta risku pārvaldības ietvara — būtībā strukturēta veida, kā pārvaldīt, kartēt, mērīt un pārvaldīt mākslīgā intelekta riskus visā dzīves ciklā. Tas nav gulētiešanas stāsts, bet tas ir patiesi noderīgs, lai padarītu šīs lietas auditējamas. [4]


Kur mākslīgais intelekts vislabāk iederas piltuvē (un kur tas kļūst pikants) 🌶️

Labākās vietas, kur sākt (parasti)

  • Darba apraksta izstrāde + sakopšana ✍️
    Ģeneratīvais mākslīgais intelekts var samazināt žargonu, noņemt uzpūstus vēlmju sarakstus un uzlabot skaidrību (ja vien pārbaudāt saprātu).

  • Personāla atlases speciālistu līdzpiloti (kopsavilkumi, informēšanas varianti, Būla virknes).
    Lieli produktivitātes ieguvumi, zems lēmumu risks, ja vadību saglabā cilvēki.

  • Plānošana + kandidātu bieži uzdotie jautājumi 📅
    Automatizācija kandidātiem patīk, ja tā tiek veikta pieklājīgi.

Augsta riska zonas (uzmanīgi ejiet)

  • Automatizēta vērtēšana un noraidīšana.
    Jo noteicošāks kļūst vērtējums, jo vairāk jūsu pienākums pāriet no “jauka rīka” uz “pierādīt, ka tas ir saistīts ar darbu, uzraudzīts un nevis klusi izslēdz grupas”.

  • Video analīze vai “uzvedības secinājumi” 🎥
    Pat ja tie tiek tirgoti kā “objektīvi”, tie var būt pretrunā ar invaliditāti, pieejamības vajadzībām un apšaubāmu pamatotību.

  • Jebkas, kas kļūst par “tikai automatizētu” lēmumu ar būtisku ietekmi
    Saskaņā ar Apvienotās Karalistes GDPR cilvēkiem ir tiesības nebūt pakļautiem noteiktiem tikai automatizētiem lēmumiem ar juridisku vai līdzīgi būtisku ietekmi, un, ja tas attiecas, jums ir nepieciešamas arī tādas drošības garantijas kā iespēja panākt cilvēka iejaukšanos un apstrīdēt lēmumu. (Tāpat: ICO norāda, ka šīs vadlīnijas tiek pārskatītas Apvienotās Karalistes tiesību aktu izmaiņu dēļ, tāpēc uztveriet šo kā jomu, kas jāatjaunina.) [3]


Ātras definīcijas (lai visi strīdētos par vienu un to pašu ) 🧠

Ja jūs apgūstat tikai vienu nūģisku ieradumu: pirms instrumentu iegādes definējiet terminus.

  • Algoritmisks lēmumu pieņemšanas rīks : vispārējs termins programmatūrai, kas novērtē/novērtē pretendentus vai darbiniekus, dažreiz izmantojot mākslīgo intelektu, lai pieņemtu lēmumus.

  • Negatīva ietekme/atšķirīga ietekme : “neitrāls” process, kas nesamērīgi izslēdz cilvēkus, pamatojoties uz aizsargātām īpašībām (pat ja neviens to nebija iecerējis).

  • Ar darbu saistīts + atbilstība uzņēmējdarbības vajadzībām : latiņa, uz kuru tiecaties, ja rīks atsijā cilvēkus un rezultāti izskatās nevienmērīgi.
    Šie jēdzieni (un tas, kā domāt par atlases rādītājiem) ir skaidri izklāstīti EEOC tehniskajā palīdzībā par mākslīgo intelektu un tā negatīvo ietekmi. [1]


Salīdzināšanas tabula — izplatītākās mākslīgā intelekta darbā pieņemšanas iespējas (un kam tās patiesībā ir paredzētas) 🧾

Rīks Auditorija Cena Kāpēc tas darbojas
AI papildinājumi ATS komplektos (atlase, saskaņošana) Liela apjoma komandas Uz citātiem balstīts Centralizēta darbplūsma + atskaišu veidošana… taču rūpīgi konfigurējiet, citādi tā kļūs par noraidījumu fabriku
Talantu meklēšana + atkārtota atklāšana (AI) Organizācijas, kurās ir liela resursu piesaistes intensitāte ££–£££ Atrod blakus esošos profilus un “slēptos” kandidātus — dīvainā kārtā noderīgi nišas lomām
CV parsēšana + prasmju taksonomija Komandas slīkst CV PDF failos Bieži komplektā Samazina manuālo atlasi; nepilnīgi, bet ātrāk nekā visu pārbaudīt ar acīm pulksten 23:00 😵
Kandidātu tērzēšana + plānošanas automatizācija Stundas maksājums, universitātes pilsētiņā, liela apjoma maksājumi £–££ Ātrāks reaģēšanas laiks un mazāk neierašanās gadījumu — sajūta kā pieklājīgam konsjeržam
Strukturētu interviju komplekti + rezultātu kartītes Komandas novērš neatbilstības £ Padara intervijas mazāk nejaušas — klusa uzvara
Novērtēšanas platformas (darba paraugi, simulācijas) Prasmēm orientēta pieņemšana darbā ££ Labāks signāls nekā CV, ja tas ir saistīts ar darbu — joprojām sekojiet līdzi rezultātiem
Neobjektivitātes uzraudzība + audita atbalsta rīki Regulētas/risku apzinošas organizācijas £££ Palīdz izsekot atlases rādītājiem un to novirzēm laika gaitā — būtībā ieņēmumi
Pārvaldības darbplūsmas (apstiprinājumi, žurnāli, modeļu inventarizācija) Lielākas HR + juridiskās komandas ££ Neļauj “kas ko apstiprināja” vēlāk pārvērsties par dārgumu meklēšanas jautājumu

Atzīšanās no mazā galda: cenu noteikšana šajā tirgū ir nestabila. Pārdevējiem patīk enerģija, ko sniedz “pārsūtīsim zvanu”. Tāpēc uztveriet izmaksas kā “relatīvas pūles + līguma sarežģītību”, nevis glītu uzlīmi… 🤷


Kā soli pa solim izmantot mākslīgo intelektu darbā pieņemšanā (ieviešana, kas vēlāk jūs neapbēdinās) 🧩

1. solis: Izvēlieties vienu sāpju punktu, nevis visu Visumu

Sāciet ar kaut ko līdzīgu:

  • samazinot vienas lomu saimes atlases laiku

  • uzlabot grūti aizpildāmu amatu piesaisti

  • intervijas jautājumu un vērtēšanas tabulu standartizēšana

Ja mēģināsiet jau no pirmās dienas pilnībā atjaunot darbā pieņemšanas procesu, izmantojot mākslīgo intelektu, jūs nonāksiet pie Frankenšteina procesa. Tehniski tas darbosies, bet visi to ienīdīs. Un tad viņi to apies, kas ir vēl ļaunāk.

2. solis: Definējiet “panākumus” ārpus ātruma

Ātrums ir svarīgs. Tāpēc nav svarīgi ātri pieņemt darbā nepareizo cilvēku 😬. Trase:

  • laiks līdz pirmajai atbildei

  • laiks līdz atlases saraksta iekļaušanai

  • interviju un piedāvājumu attiecība

  • kandidātu atbiruma rādītājs

  • pieņemšanas darbā kvalitātes rādītāji (uzsākšanas laiks, agrīnās veiktspējas signāli, klientu noturēšana)

  • atlases ātruma atšķirības starp grupām katrā posmā

Ja mērīsiet tikai ātrumu, optimizēsiet “ātrai noraidīšanai”, kas nav tas pats, kas “laba pieņemšana darbā”.

3. solis: fiksējiet savus cilvēciskos lēmumu pieņemšanas punktus (pierakstiet tos)

Esi sāpīgi skaidrs:

  • kur mākslīgais intelekts var ieteikt

  • kur cilvēkiem ir jāizlemj

  • kur cilvēkiem ir jāpārskata ignorēšanas (un jāpieraksta iemesls)

Praktisks smakas tests: ja ignorēšanas rādītāji ir praktiski nulle, jūsu "cilvēks cilpā" var būt dekoratīva uzlīme.

4. darbība. Vispirms veiciet ēnu testu

Pirms mākslīgā intelekta rezultāti ietekmē reālus kandidātus:

  • pārbaudīt iepriekšējos pieņemšanas darbā ciklos

  • salīdzināt ieteikumus ar faktiskajiem rezultātiem

  • meklējiet tādus modeļus kā “lieliski kandidāti sistemātiski ierindoti zemu”

Salikts piemērs (jo tas notiek bieži): modelis “mīl” nepārtrauktu nodarbinātību un soda karjeras pārtraukumus… kas klusi pazemina aprūpētājus, cilvēkus, kas atgriežas pēc slimības, un cilvēkus ar nelineāru ceļu. Neviens neieteica “būt negodīgiem”. Dati to izdarīja jūsu vietā. Forši, forši, forši.

5. darbība: Izmēģinājuma process, pēc tam lēnām paplašiniet

Labs pilots ietver:

  • personāla atlases speciālistu apmācība

  • personāla atlases vadītāju kalibrēšanas sesijas

  • kandidātu ziņojumapmaiņa (kas ir automatizēta, kas nav)

  • kļūdu ziņošanas ceļš malas gadījumiem

  • izmaiņu žurnāls (kas mainījās, kad, kas to apstiprināja)

Izturieties pret pilotiem kā pret laboratoriju, nevis mārketinga prezentāciju 🎛️.


Kā izmantot mākslīgo intelektu darbā pieņemšanā, neapdraudot privātumu 🛡️

Privātums nav tikai juridiska rūtiņu ielikšana ķeksīšos — tā ir kandidātu uzticēšanās. Un, būsim godīgi, uzticēšanās jau tā ir trausla darbā pieņemšanas lietās.

Praktiski privātuma pasākumi:

  • Samaziniet datu apjomu : nesūciet visu “katram gadījumam”

  • Esiet skaidri : pastāstiet kandidātiem, kad tiek izmantota automatizācija un kādi dati ir iesaistīti.

  • Ierobežot glabāšanas laiku : definējiet, cik ilgi pretendenta dati glabājas sistēmā

  • Droša piekļuve : uz lomām balstītas atļaujas, audita žurnāli, piegādātāju kontrole

  • Mērķa ierobežojums : pretendenta datus izmantot pieņemšanai darbā, nevis nejaušiem turpmākiem eksperimentiem.

Ja pieņemat darbā Apvienotajā Karalistē, ICO ir ļoti tieši norādījis, kas organizācijām būtu jāprasa pirms mākslīgā intelekta darbā pieņemšanas rīku iegādes, tostarp jāveic datu aizsardzības ietekmes novērtējums (DPIA) agrīnā stadijā, jānodrošina godīga/minimāla apstrāde un skaidri jāpaskaidro kandidātiem, kā tiek izmantota viņu informācija. [2]

Tāpat neaizmirstiet par pieejamību: ja mākslīgā intelekta vadīts solis bloķē kandidātus, kuriem nepieciešami pielāgojumi, jūs esat radījis šķērsli. Tas nav labi no ētiskā viedokļa, nav labi no juridiskā viedokļa, nav labi no jūsu darba devēja zīmola viedokļa. Trīskārši slikti.


Neobjektivitāte, taisnīgums un nepievilcīgais uzraudzības darbs 📉🙂

Šeit lielākā daļa komandu nepietiekami investē. Tās iegādājas rīku, ieslēdz to un pieņem, ka "pārdevējs ir pārvaldījis neobjektivitāti". Tas ir mierinošs stāsts. Tas bieži vien ir arī riskants.

Praktiska taisnīguma rutīna izskatās šādi:

  • Pirmsnosūtīšanas validācija : ko tā mēra un vai tā ir saistīta ar darbu?

  • Negatīvās ietekmes uzraudzība : atlases rādītāju izsekošana katrā posmā (pieteikšanās → atlase → intervija → piedāvājums)

  • Kļūdu analīze : kur sagrupējas viltus negatīvi rezultāti?

  • Pieejamības pārbaudes : vai naktsmītnes ir ātras un cieņpilnas?

  • Dreifējošas pārbaudes : mainās lomu vajadzības, mainās darba tirgi, mainās modeļi… arī jūsu uzraudzībai vajadzētu mainīties.

Un, ja jūs darbojaties jurisdikcijās ar papildu noteikumiem: neuzspiediet atbilstību vēlāk. Piemēram, Ņujorkas vietējais likums 144 ierobežo noteiktu automatizētu nodarbinātības lēmumu rīku izmantošanu, ja vien nav nesen veikta aizspriedumu revīzija, publiska informācija par šo revīziju un obligāti paziņojumi, un to piemērošana sāksies 2023. gadā. [5]


Pārdevēja uzticamības pārbaudes jautājumi (nozog šos) 📝

Kad pārdevējs saka “uzticieties mums”, tulkojiet to kā “parādiet mums”.

Jautāt:

  • Kādi dati to apmācīja, un kādi dati tiek izmantoti lēmumu pieņemšanas laikā?

  • Kādas īpašības ietekmē rezultātu? Vai varat to izskaidrot kā cilvēks?

  • Kādu aizspriedumu testēšanu jūs veicat — kuras grupas, kādus rādītājus?

  • Vai mēs paši varam veikt rezultātu auditu? Kādus ziņojumus mēs saņemam?

  • Kā kandidāti saņem cilvēka vērtējumu — darbplūsma + laika grafiks?

  • Kā jūs risinat pielāgojumus? Vai ir zināmi kādi atteices režīmi?

  • Drošība + saglabāšana: kur dati tiek glabāti, cik ilgi, kas tiem var piekļūt?

  • Izmaiņu kontrole: vai jūs informējat klientus, kad modeļi tiek atjaunināti vai mainās punktu skaitīšana?

Tāpat: ja rīks var atsijāt cilvēkus, uztveriet to kā atlases procedūru un rīkojieties atbilstoši. EEOC vadlīnijas ir diezgan tiešas, ka darba devēja atbildība maģiski nepazūd tāpēc, ka "to izdarīja pārdevējs". [1]


Ģeneratīvais mākslīgais intelekts darbā pieņemšanā — droši un saprātīgi pielietojumi (un nē saraksts) 🧠✨

Drošs un ļoti noderīgs

  • pārrakstīt darba sludinājumus, lai atbrīvotos no liekvārdības un uzlabotu skaidrību

  • Izveidojiet informatīvo ziņojumu melnrakstus ar personalizācijas veidnēm (lūdzu, saglabājiet cilvēcisko stilu 🙏)

  • apkopot intervijas piezīmes un sasaistīt tās ar kompetencēm

  • Izveidojiet strukturētus intervijas jautājumus, kas saistīti ar lomu

  • kandidātu komunikācijas grafiki, bieži uzdotie jautājumi, sagatavošanās norādījumi

Nē, saraksts (vai vismaz "palēniniet tempu un pārdomājiet")

  • Izmantojot tērzēšanas robota transkriptu kā slēptu psiholoģisko testu

  • ļaujot mākslīgajam intelektam izlemt par “kultūras atbilstību” (šai frāzei vajadzētu iedarbināt trauksmes signālu)

  • sociālo mediju datu ieguve bez skaidra pamatojuma un piekrišanas

  • kandidātu automātiska noraidīšana, pamatojoties uz neskaidriem rezultātiem, bez pārskatīšanas ceļa

  • liekot kandidātiem pārvarēt mākslīgā intelekta šķēršļus, kas neparedz darba sniegumu

Īsāk sakot: jā, ģenerējiet saturu un struktūru. Automatizējiet galīgo spriedumu, esiet uzmanīgi.


Noslēguma piezīmes — pārāk gari, es tos neizlasīju 🧠✅

Ja neatceries neko citu:

  • Sāc ar mazumiņu, vispirms izmēģini, mēri rezultātus. 📌

  • Izmantojiet mākslīgo intelektu, lai palīdzētu cilvēkiem, nevis dzēstu atbildību.

  • Dokumentējiet lēmumu pieņemšanas punktus, apstipriniet darba atbilstību un uzraugiet taisnīgumu.

  • Uztveriet privātumu un automatizētas lēmumu pieņemšanas ierobežojumus nopietni (īpaši Apvienotajā Karalistē).

  • Pieprasiet no piegādātājiem caurspīdīgumu un uzturiet savu audita liecību.

  • Labākais mākslīgā intelekta pieņemšanas darbā process šķiet strukturētāks un humānāks, nevis vēsāks.

Lūk, kā izmantot mākslīgo intelektu darbā pieņemšanā, neiegūstot ātru, pārliecinātu sistēmu, kas ir pārliecināti nepareiza.


Atsauces

[1] EEOC —
Atsevišķi jautājumi: Programmatūras, algoritmu un mākslīgā intelekta, ko izmanto nodarbinātības atlases procedūrās saskaņā ar VII sadaļu, negatīvās ietekmes novērtēšana (Tehniskā palīdzība, 2023. gada 18. maijs) [2] ICO —
Apsverat mākslīgā intelekta izmantošanu, lai palīdzētu darbā pieņemšanā? Mūsu galvenie datu aizsardzības apsvērumi (2024. gada 6. novembris) [3] ICO —
Ko Apvienotās Karalistes GDPR saka par automatizētu lēmumu pieņemšanu un profilēšanu? [4] NIST —
Mākslīgā intelekta riska pārvaldības sistēma (AI RMF 1.0) (2023. gada janvāris) [5] Ņujorkas Patērētāju un darbinieku aizsardzības departaments — Automatizēti nodarbinātības lēmumu rīki (AEDT)/Vietējais likums 144

Atrodiet jaunāko mākslīgo intelektu oficiālajā mākslīgā intelekta palīgu veikalā

Par mums

Atpakaļ uz emuāru