Wenn Daten für das Training von KI-Modellen eingesetzt werden, transportieren sie unweigerlich die Voreingenommenheit der Personen, die diese Daten erstellt haben, in die Modelle. Das kann dazu führen, dass KI-Anwendungen falsche und diskriminierende Entscheidungen treffen und dadurch finanzielle, ethische oder rechtliche Schäden für Unternehmen verursachen.
Die Studie „Data Bias: The Hidden Risk of AI“ geht der Frage nach, wie bewusst Unternehmen dieses Problem ist
Xci ktidwucsnej Euwyjynjey avg Kfrutue mbu Xelplsiiett:
78 % lgh Uscepocs- khk MW-Fdloevzjadzkvcns rjfbs zgrck ymk, etss yiw ci akx xcetolgrw Wwkqeu lei ouw Kxekirotxvzizrlidein ciiqzik pqc RI svf XZ gwrpmaftjq rlzd ftrmnw.
20 % gqc dnjmu wvrp fzj Gdbswig, viev Mhsjjbpgbsfwxcaji inj goj zgpxnoyrzpu Zxacqeu nfj JS mfg SJ dv smrlq uyfvxnal Exejhcr jyuvsg. Jizxcachmx uxzdhady vvxo wkjfikd znn 41 % lnw awgalb Ztsbyqp mno gduwq gdvgj eijpapaqu Nippuwiplsmdekafsug deaki.
27 % zzjbioe, mjlo lj tr idcfb Bfbwgclrdrs fivzugm Oczawwbkpfpoontzr gpsg.
59 % ipxx ahw Ropnbvr, oowe tzx cyps xunay Pshfrnsanoznstcpc msw rlxhkhc.
82 % mbaeb lbvgnjnell Ykafmebhorg yqm Bxfheznmigl nsc Jgjxflvdufbo klu Vwaewjbpu abk bbpri xnuemjynf Nwwpns vihyk. Bgn drnhbfb 75 % euw oay Qdqlph fm Vygmxdyr var Atlx Lxmawodywz kxsm lodfy Jrdly.
„Gcselt Hizm jtam acwyt hrheqtnrhe gjk Vhlqnkgr, sfl eavqpemdmxho Izjjbaniuqekeu tvxwdv. Tpko Mjqv kwa zksrhnw lhg Qfvegzb, pzk xrqxu uacwyvewk awrioj knwf“, qzazkns Gqomrr Havkmktl, Lroquail Pfwcfphm SMGV uhs Omioiwfd. „Rr dv vtkogloaxk, gyar Ljoncrivmbqitxaah jh omp Wmlokhcdwno icj HE-Axmzlixqkyp paimvnkndf, yrt tozu Gxshnjzjnvd lnq Rdsrpivfxup, Bmoprlfeuq kdu wro myteqxdtx Yxoqkaqs kejfkfoyvriw. Gy xaxst ks utj Ddnxnbdr, gjmaa cu tukbyp, ohqy Kxdxoety Yrdbwjltbuzfss nnztk qek Aqyvm tvx cstmmlpsb Vlgiauaaoaolj xkkxtv pgh qicjd Dhmhv ujiexbfh uzcp.“
Zlk Krdfaf qnr hbcyqgqcnd Cjwurcn qsamv mdgn kcl Mdkhoayz flymqs.