Varför ny profileringsprogram väcker integritetsproblem

Innehållsförteckning:

Varför ny profileringsprogram väcker integritetsproblem
Varför ny profileringsprogram väcker integritetsproblem
Anonim

Key takeaways

  • Programvara som använder artificiell intelligens för att profilera människor väcker integritetsproblem.
  • Cryfe kombinerar beteendeanalystekniker med artificiell intelligens.
  • Det kinesiska företaget Alibaba mötte nyligen kritik efter att ha sagt att dess programvara kunde upptäcka uigurer och andra etniska minoriteter.
Image
Image

Ny programvara som drivs av artificiell intelligens och som är avsedd för arbetsgivare att profilera sina anställda väcker integritetsproblem.

En ny mjukvaruplattform, kallad Cryfe, kombinerar beteendeanalystekniker med artificiell intelligens. Utvecklaren hävdar att genom att analysera små ledtrådar kan programvaran avslöja människors avsikter under intervjuer. Men vissa observatörer säger att Cryfe och andra typer av programvara som analyserar beteende kan invadera integriteten.

"Företag förlitar sig alltmer på AI för profilering", sa AI-experten Vaclav Vincale i en e-postintervju. "Men inte ens människorna som kodar dessa algoritmer, än mindre en kundsupportperson du når på telefon, kunde inte berätta varför de ger en given rekommendation."

More Than Words

Cryfe utvecklades av ett schweiziskt företag vars anställda utbildats av FBI i profileringstekniker. "Cryfe, i all interpersonell kommunikation, lyssnar inte bara på ord, utan identifierar andra signaler som sänds ut av människan såsom känslor, mikrouttryck och alla gester", sa Caroline Matteucci, grundaren av Cryfe, i en e-postintervju.

"Under rekrytering, till exempel, tillåter detta oss att gå och leta efter vår samtalspartners verkliga personlighet."

Matteucci sa att användarnas integritet är skyddad eftersom företaget är transparent med hur dess programvara fungerar. "Användaren måste, innan han kan använda plattformen, acceptera de allmänna villkoren", sa hon.

"Där anges att användaren inte i något fall får lämna in en intervju för analys utan att ha fått skriftligt medgivande från samtalspartnern."

Cryfe är inte den enda AI-drivna programvaran som utger sig för att analysera mänskligt beteende. Det finns också Humantic, som påstår sig analysera konsumentbeteende. "Humantics banbrytande teknik förutsäger allas beteende utan att de någonsin behöver göra ett personlighetstest", enligt företagets webbplats.

Image
Image

Företaget hävdar att de använder AI för att skapa sökandes psykologiska profiler baserat på orden de använder i CV, personliga brev, LinkedIn-profiler och alla andra texter som de skickar in.

Beteendeprogramvara har stött på juridiska utmaningar tidigare. Under 2019 rapporterade Bloomberg Law att Equal Employment Opportunity Commission (EEOC) undersökte fall av påstådd olaglig diskriminering på grund av algoritmassisterade, HR-relaterade beslut.

"Det här kommer att behöva redas ut eftersom framtiden för rekrytering är AI", sa advokat Bradford Newman till Bloomberg.

Vissa observatörer har problem med företag som använder programvara för beteendespårning eftersom den inte är tillräckligt exakt. I en intervju berättade Nigel Duffy, global ledare för artificiell intelligens på professionella tjänsteföretaget EY, för InformationWeek att han är bekymrad över programvara som använder frågesporter i sociala medier och påverkansdetektering.

"Jag tror att det finns en del verkligt övertygande litteratur om potentialen för affektdetektering, men jag förstår att sättet som implementeras ofta är ganska naivt", sa han.

"Människor drar slutsatser som vetenskapen inte riktigt stöder [som] att bestämma att någon är en potentiellt bra anställd för att de ler mycket eller att någon tycker om dina produkter för att de ler mycket."

Kinesiska företag har enligt uppgift profilminoriteter

Beteendespårning kan också ha mer olyckliga syften, säger vissa människorättsgrupper. I Kina väckte onlinemarknadsjätten Alibaba nyligen uppståndelse efter att den enligt uppgift hävdade att dess programvara kunde upptäcka uigurer och andra etniska minoriteter.

The New York Times rapporterade att företagets datormolnverksamhet hade programvara som kunde skanna bilder och videor.

Men även människorna som kodar dessa algoritmer…kunde inte berätta varför de ger någon given rekommendation.

The Washington Post rapporterade också nyligen att Huawei, ett annat kinesiskt teknikföretag, hade testat programvara som kunde varna brottsbekämpande myndigheter när dess övervakningskameror upptäckte uiguriska ansikten.

En patentansökan från Huawei från 2018 hävdade enligt uppgift att "identifiering av fotgängares egenskaper är mycket viktig" i ansiktsigenkänningsteknik."Attributen för målobjektet kan vara kön (man, kvinna), ålder (som tonåringar, medelålders, gamla) [eller] ras (Han, uigurer), " stod det i ansökan.

En talesperson för Huawei sa till CNN Business att funktionen för identifiering av etnicitet "aldrig borde ha blivit en del av applikationen."

Den växande användningen av artificiell intelligens för att sortera igenom enorma mängder data kommer definitivt att ge upphov till integritetsproblem. Du kanske aldrig vet vem eller vad som analyserar dig nästa gång du går på en anställningsintervju.

Rekommenderad: