Google predstavil panel etiky AI

Panel sa skladá z ôsmich osôb a zahŕňa bývalého zástupcu štátneho tajomníka USA a docenta Univerzity v Bath.
 
Skupina bude "zvažovať niektoré z najzložitejších úloh spoločnosti Google", uviedla firma.

kancelář
 
Panel bol vyhlásený na konferencii EmTech Digital spoločnosti MIT Technology Review, ktorá bola organizovaná v Massachusetts Institute of Technology.
 
Google sa dostal pod intenzívnu kritiku – interne aj externe – nad tým, ako plánuje využívať nové technológie.
 
V júni 2018 spoločnosť uviedla, že neobnoví zmluvu s Pentagonom na vývoj technológie AI na kontrolu dronov. Projekt Maven, ako bolo známe, bol medzi zamestnancami spoločnosti Google nepopulárny a vyzval na niektoré rezignácie.
 
V reakcii na to spoločnosť Google zverejnila súbor zásad „AI“, ktoré uviedla, že by ich dodržiavala. Zahŕňali sľuby byť „spoločensky prospešnými“ a „zodpovednými ľuďom“.
 
Externá poradná rada pre moderné technológie (ATEAC) sa stretne prvýkrát v apríli. Vedúci globálnych záležitostí spoločnosti Google, Kent Walker, v blogovom príspevku uviedol, že v roku 2019 sa uskutočnia ďalšie tri stretnutia.
 
Spoločnosť Google uverejnila úplný zoznam členov panelu. Zahŕňa popredného matematika Bubacarra Baha, bývalého zástupcu štátneho tajomníka USA Williama Josepha Burnsa a Joanna Brysonovú, ktorá vyučuje počítačové vedy na University of Bath, UK.
 
Bude diskutovať o odporúčaniach, ako používať technológie ako rozpoznávanie tváre. Vtedajší šéf spoločnosti Google v oblasti cloud computingu, Diane Greene, v minulom roku opísala technológiu rozpoznávania tváre ako „inherentnú zaujatosť“ v dôsledku nedostatku rôznych údajov.
 
Vo vysoko citovanej práci s názvom Roboti by mali byť otroci, pani Brysonová argumentovala proti trendu liečiť roboty ako ľudia.
 
„Pri ich humanizácii,“ napísala, „my nielen ďalej dehumanizujeme skutočných ľudí, ale aj povzbudzujeme chudobné ľudské rozhodovanie pri rozdeľovaní zdrojov a zodpovednosti“.

umělá inteligence
 
V roku 2018 tvrdila, že zložitosť by sa nemala používať ako ospravedlnenie na to, aby verejnosť riadne neinformovala o tom, ako fungujú systémy AI.
 
"Keď systém používajúci AI spôsobuje škody, musíme vedieť, že môžeme držať ľudské bytosti za týmto systémom, aby sme ich mohli zohľadniť."