Főoldal

"Mérnököt a mérnöktől"

A Schönherz Bázis összeköti az állást kereső és állást kínáló mérnököket.

CV küldés

Küldj önéletrajzot! Gyorsan, egyszerűen.
Megjegyzésbe írd be a pozíció nevét.
CV küldés

Iratkozz fel hírlevelünkre!

Hírek

Az MIT rasszista és nőgyűlölő mesterséges intelligencia modelleket eredményező adatkészletet vont vissza
Az MIT rasszista és nőgyűlölő mesterséges intelligencia modelleket eredményező adatkészletet vont vissza

Az MIT bocsánatot kért és elérhetetlenné tett egy adatbázist, ami rasszista és nőgyűlölő tendenciákat okozott a mesterséges intelligencia (MI) modellekben.

A 80 Million Tiny Images néven futó adatállományt 2008-ban készítették, azzal a céllal, hogy MI-n alapuló rendszereket tanítson meg különböző tárgyak, objektumok felismerésére. Az adatállomány egy rengeteg képből álló gyűjtemény, aminek minden egyes darabja fel van címkézve az alapján, hogy mit ábrázol. A gépi tanulási modellek ezeket a címkézett képeket használják fel a tanulási folyamat alatt. Tehát egy hasonló adatállományon betanított AI rendszer a végére képes lesz felismerni, hogy egy utcáról készített képen pontosan milyen objektumok (autók, gyalogosok, kerékpárok…) láthatóak.

Két kutató – Vinary Prabhu, az UnifyID vezető tudományos munkatársa és Abeba Birhane, a Dublini University College PhD hallgatója – megvizsgálták a képeket és több ezer aggodalomra okot adó címkét találtak.



Az MIT tréning szettje a nőket ringyónak, prostituáltnak titulálta, a színes bőrű közösségek tagjait további pejoratív jelzőkkel illette. Az adatsor ezen kívül női nemi szervekről készült közeli felvételeket is tartalmazott trágár címkékkel. A The Register (brit technológiai hírportál) rögtön megosztotta az MIT-vel Prabhu és Birhane kutatásának riasztó eredményét, mire az intézet rögtön leszedte az adatkészletet, illetve egy közleményt is kiadott, amiben felszólított mindenkit, hogy hagyjon fel ennek az adatsornak a használatával és töröljön ki minden másolatot is.

Az MIT honlapján megjelent közlemény azt állítja, hogy az intézménynek nem volt tudomása a sértő címkézésről, ami a WordNet főnév gyűjteményén alapuló automatikus adatgyűjtés eredménye volt.

Emellett leírják, hogy a 80 millió 32x32 pixeles képet tartalmazó állomány manuális átvizsgálása lehetetlen, ezért nem tudják garantálni, hogy minden sértő tartalmat sikerül eltávolítaniuk.


„A kettős mércék, sértő képek, becsmérlő terminológia használata közösségünk egy nagyon fontos részét rekeszti ki – pont azt a részét, aminek az integrálásán olyan keményen dolgozunk. Továbbá, az ilyen adatokkal történő tanítási folyamatok káros torzításokat eredményeznek az AI rendszerekben.” – írta Antonio Torralba, Rob Fergus és Bill Freeman az MIT-től.  „ Ezenfelül, az ilyen és hasonló kártékony képek aláássák azokat a törekvéseket, amik éppen a kulturális integrációt próbálják megvalósítani a computer vision világában. Ezt elfogadhatatlannak tartjuk, ami minden, általunk képviselt morális értékkel szembe megy.”


(Forrás)


***

Ha Te is kreatív, kihívásokkal teli mérnök állást keresel minőségi munkáltatónál, jó helyen jársz, mert a Schönherz Bázis épp azért jött létre, hogy Neked segítsen.
Gyere, nézz szét aktuális állásaink között!


2020.08.28.