In alcune aziende, l’intelligenza artificiale è già al lavoro in diversi campi: il futuro è tutto dei robot
La tecnologia è sempre più presente all’interno delle aziende, al punto che si è arrivati a discutere su effetti, benefici, ma anche rischi, che questo può comportare. La giornalista Andrea Munard, ha trattato il tema “Intelligenza artificiale“, in un articolo per la BBC, ammettendo: “Francamente è stato un po’ stressante sapere che la mia domanda era valutata da un computer e non da un essere umano”. Il suo, è stato un test di durata 25 minuti, dove la giornalista ha dovuto compilare 12 “giochi”, sviluppati per misurare abilità emotive e cognitive. Il tutto, senza contatti umani e ad oggi, senza essere ricontattata.
Il software di selezione si chiama Pymetrics ed è di matrice statunitense. Il robot comprende 20 lingue e sarebbe sviluppato per “raccogliere dati imparziali”. Quindi, verremmo selezionati tramite un algoritmo, aiutando datori di lavoro e candidati a raccogliere i dati che aiutano entrambi. La decisione finale di cosa fare con il profilo uscito poi dalla selezione, tocca comunque all’azienda.
Leggi anche>>> Il futuro: l’elettricità wireless che si trasmette senza fili
Leggi anche>>> L’euro digitale sta arrivando: tutto pronto per la rivoluzione
Secondo James Meachin, psicologo del lavoro per la società di consulenza britannica Pearn Kandola, questi sistemi hanno comunque per ora dei limiti. Anche assistenti vocali di alto livello come quelli di Google, Amazon o Apple, hanno ancora oggi difficoltà a comprendere per esempio tutte le parole pronunciate da persone che possano avere un marcato accento regionale o nazionale (vedi gli scozzesi per la Gran Bretagna). Ma anche per una trascrizione corretta del testo parlato, c’è la difficoltà di attribuire il giusto significato alle parole all’interno di un concetto. La cosiddetta difficoltà semantica che invece non è presente in un uomo. Richiede attenzione, anche il tema non trascurato da Sandra Wachter, professoressa associata di diritto presso l’Università di Oxford, sull’equalità di persone che possano, nei dati di partenza risultare parte di minoranze o eccezioni.
Può essere discriminatoria una selezione fatta da machine learning? Involontariamente, ma sì. Infatti uno studio fatto nel 2018 su un test di Amazon, fece scoprire che anche la macchina non eseguiva la selezione dei candidati in maniera del tutto super partes. Questo perché in fase di addestramento, il sistema aveva “ascoltato” più voci maschili e quindi aveva imparato a preferirle a quelle femminili. Per la selezione degli sviluppatori di software, per esempio, il sistema di intelligenza artificiale aveva quindi seguito schemi individuati nelle informazioni inserite dai programmatori. L’intelligenza finì quindi per non preferire parole al femminile, e parrebbe, persino a declassare chi avesse frequentato college prettamente femminili.
Il pregiudizio, non risultò essere poi, solo di genere. Infatti, all’interno dei 50mila termini individuati nei database del curriculum in fase di addestramento, il macchinario era portato ad assegnare minore rilevanza ai termini che denotavano competenze abbastanza comuni per ciascuna specifica ricerca di personale, preferendo invece i candidati che usavano, nella loro intervista, più verbi ascoltati nei curriculum degli ingegneri maschi. Questo, finì per dare minor importanza alle reali competenze, piuttosto che ad alcuni termini usati in presentazione dei curriculum.