SRIP Tovarne Prihodnosti

Zaupanje, zanesljivost, etika umetne inteligence v industrijskih aplikacijah

Leta 2023 v resničnem svetu, kamor koli pogledate, umetna inteligenca sprejema odločitve. Pove vam, kaj morate gledati, kaj kupiti, kje jesti. So vam ukradli kreditno kartico? AI vas bo opozoril. Potrebujete informacije o najbližji trgovini z živili? Vaš telefon vam bo povedal. Napredni sistemi umetne inteligence celo vozijo avtomobile po prometnih avtocestah.

V tovarni in drugih industrijskih aplikacijah umetna inteligenca išče napake na izdelku. Vodi robote po delavnici. Umetna inteligenca vam lahko pove, kdaj bo vaša proizvodna linija prenehala delovati – in kako odpraviti težavo, preden se to zgodi. UI bo vašim inženirjem pomagal optimizirati proizvodnjo ali zmanjšati količino odpadkov. Sistemi umetne inteligence lahko pomagajo zaščititi delavce tako, da prepoznajo, kdaj stopijo na nevarno območje.

Kako pa vemo, da lahko zaupamo tem odločitvam?

Odločitve, ki jih sprejmejo zapletene nevronske mreže globokega učenja, so pogosto podane brez pojasnila. Ker se ti sistemi v bistvu programirajo sami, njihovo odločanje ni razložljivo. Tu pravimo Black Box UI. Raziskave, ki potekajo, so bile usmerjene v večjo preglednost odločitev UI.

Toda za tiste, ki trenutno uvajajo UI, kako vemo, ali lahko zaupamo naši UI? Ena stvar je soočiti se s posledicami slabega priporočila za nakup ali nepravilno zavrnjenega nakupa na kredit. Toda kaj se zgodi, ko so kritične operacije – in zlasti naša varnost – odvisne od umetne inteligence?

Zaupanje je trdno prepričanje v zanesljivost, resnico, sposobnost in/ali moč nekoga ali nečesa. Da bi ljudje verjeli v umetno inteligenco, potrebujejo več kot le razlago črne skrinjice, da »umetna inteligenca preprosto deluje«. V tem prispevku bomo raziskali pomen zaupanja v aplikacije UI in kako zgraditi zaupanje pri uporabnikih, pri čemer bmoo obravnavali teme, kot so:

  • Razložljivost: uporabniki morajo vedeti, zakaj sistemi umetne inteligence sprejemajo takšne odločitve.
  • Usposobljenost: uporabniki morajo razumeti omejitve umetne inteligence. Poleg tega se morajo sistemi umetne inteligence zavedati in upoštevati svoje omejitve.
  • Transparentnost delovanja: Uporabniki morajo videti, kako sistemi UI delujejo v realnem času, in vedeti, zakaj se obnašajo tako, kot se.
  • Predvidljivost: uporabniki morajo biti sposobni predvideti, kako se lahko sistemi UI odzovejo v določenih situacijah.
  • Etika: Sistemi umetne inteligence se morajo izogibati etičnim vprašanjem, ki lahko zlomijo zaupanje, če se jih ne obravnava previdno.

Podatki, ki jim lahko zaupate

Modeli UI so zgrajeni na podatkih. Zato je smiselno, da morajo uporabniki zaupati umetni inteligenci tudi podatkom, uporabljenim za njegovo izdelavo. Dominik Boesl, tehnični direktor pri Micropsi Industries, deli številne različne načine, kako lahko podatki vplivajo na zaupanje.

Zaupanje v podatke se začne s skrbnim zajemanjem teh podatkov. »V enem primeru je bilo med treningom na mizi pero. Umetna inteligenca je mislila, da je pero referenčna točka,« pravi Boesl. “Potrebna je samo ena slika brez peresa, da se pokaže, da ni nujno.”

Razvijalci morajo upoštevati tudi pristranskost vzorčenja, saj lahko vpliva na natančnost sistema. Pogost primer pristranskosti vzorčenja so okoljski pogoji, kot je osvetlitev. UI ni vedno enaka. Obstajajo različne vrste in tehnologije. In ni nujno, da se tisto, kar oseba išče, ujema s tem, kar išče UI. Že leta 1995 je Nato uporabil programsko opremo za prepoznavanje, da bi razlikoval med lastnimi in sovražnimi tanki. Ni se dobro obneslo. Po mesecih odpravljanja težav so odkrili, da so bili podatki o usposabljanju vzeti iz čistih slik brošure z močno osvetlitvijo, ne iz tankov, pokritih z blatom ali pri šibki svetlobi. UI je bil osredotočen na “čistost”.

Variance so bistvene pri podatkih. Razmislite, kako morajo imeti testni vozniki Tesle skoraj prezhibno vozniško zgodovino. Avto se “uči” na predvidljivem vozniku. Vendar ne bo vsak voznik 100% predvidljiv. Dodajanje variance odstrani slepe pege s prikazom širšega vzorca sprejemljivega.

Z dovolj variance ni treba prikazovati nezaželenih stanj, ni treba reči dobro ali slabo. Poskrbimo za uporabo različnih belih in barvitih ozadij, da naučimo UI, da ne računa na ozadje. Za neodvisnost od svetlobe uporabljamo video projektor za osvetlitev sistema med treningom. Ker se svetloba nenehno spreminja, to uči UI, da svetloba ni pomembna lastnost. In naj usposobljeni operater uči UI namesto inženirja. Operater je strokovnjak in oseba, ki bo delala z UI.«

Na temeljni ravni, če je model preveč samozavesten v svoji napovedi v redkih in zahtevnih situacijah z omejenimi/brez podatkov o usposabljanju, potem gre lahko za ekstrapolacijsko napako. Pomaga razumeti perspektivo uporabnika. Številni tehniki in končni uporabniki imajo leta in celo desetletja izkušenj. Upravičeno se lahko vprašajo: »Kako se lahko umetna inteligenca odzove bolje od mene v tako zahtevnih situacijah?«

Obstaja tudi vprašanje človeške napake. Če so nekateri podatki nepravilno označeni, bo UI nezanesljiv za podobne primere. Če se umetna inteligenca zanaša na te podatke za zanesljive napovedi, lahko to privede do zlorabe zaupanja. Če pa umetna inteligenca lahko ve, katere oznake so verjetno napačne, in je odporna na nekatere napake v oznaki, potem lahko zahteva povratne informacije, da ohrani zaupanje.

Kompetentnost

Drug temelj zaupanja v UI je zavedanje njegovih omejitev. Izraz skromna umetna inteligenca je bil skovn za označevanje umetne inteligence, ki se zaveda lastne usposobljenosti, lahko zaprosi za pomoč in sčasoma povečuje svojo usposobljenost. Ko ugotovi, da je izven področja njene pristojnosti, odločitev prenese na operaterja ali pa se vrne na druge varne načine delovanja. Sčasoma je mogoče te nove podatke predelati v modele za dvig ravni usposobljenosti umetne inteligence.

To je pomembna ideja. Ni treba, da UI že na začetku deluje povsod. Uporablja se lahko tam, kjer ima dovolj podatkov, da je koristna – in zaupanja vredna. Na primer, umetna inteligenca morda ne bo vedela, kako diagnosticirati novo napako v industrijskem sistemu. Vendar pa umetna inteligenca morda ve dovolj, da pove, kakšna situacija ni. “To ni napaka A, lahko pa je napaka B ali napaka C.”

Ko razvijalci sprejmejo kompetentnost kot dejavnik, lahko to zgradi zaupanje. Brez prave usposobljenosti se bo UI odločila, tudi če ne pozna odgovora. Namesto da bi tvegala napačno priporočilo in uničila uporabnikovo zaupanje, lahko AI zoži možnosti. Še vedno je v pomoč. Še vedno je pravilno. In tako še naprej gradi zaupanje in zmanjšuje delovno obremenitev na področjih, kjer lahko pripomore.

To nakazuje pristop k uvajanju umetne inteligence z razgradnjo kompleksnih problemov na manjše dele. Sprva je lahko splošna natančnost nizka. Na primer, model UI ima lahko za označevanje zapisov o vzdrževanju slabo splošno učinkovitost (80 %), vendar v regiji pristojnosti, kjer model meni, da mu lahko zaupate, lahko zagotovi 97-odstotno natančnost. Tako je bilo več kot 50 % primerov označevanja dokumentov mogoče avtomatizirati, drugi primeri pa so zahtevali nekaj človeške pomoči za označevanje dvoumnih ali nepravilnih primerov. Te nove oznake s strani ljudi je mogoče uporabiti za posodabljanje modela. Sodelovanje pri usposabljanju zaupanja vredne umetne inteligence in spremljanje njenega razvoja sta lahko močna podlaga za to, da postane zaupanja vredna umetna inteligenca.

Velja si zapomniti, da je UI razvijajoče se področje. Če umetna inteligenca ne zagotavlja potrebnih rezultatov, je povsem mogoče, da to ni problem, ki ga umetna inteligenca danes ne more več rešiti. Bolje je to priznati, kot trditi, da lahko umetna inteligenca naredi nekaj, česar ne more. Kajti ob prvem neuspehu je zaupanje porušeno in ga bo težko ponovno pridobiti.

Razložljivost

Razložljivost je eno od osnovnih orodij za gradnjo zaupanja. Skratka, ideja je, da bo uporabnik, če razume, kako AI sprejema odločitve, bolj odprt za zaupanje njenim priporočilom. Dodatna prednost razložljivosti je, da je lažje preveriti, ali umetna inteligenca deluje po pričakovanjih. To lahko pospeši razvoj inženirjev, pa tudi vzpostavi zaupanje uporabnikov. Razložljivost je pomembna tudi navzgor. Vodja bi lahko na primer vprašal: “Zakaj je ta robot tako počasen?” Medtem ko bi robot lahko šel hitreje, deluje počasneje, da zaščiti delavce.

Razložljivost se začne z: ‘Zakaj za vraga to počnem?’ Če zakaj ni pojasnjeno, to ustvarja osnovo za nelagodje in nezaupanje. Da bi pridobili podporo delavcev in spodbudili njihovo angažiranost, morajo razumeti izzive, s katerimi se sooča podjetje, kako lahko umetna inteligenca pomaga in svojo bistveno vlogo pri splošni rešitvi. Šele takrat lahko razpravljate o tem, kaj se dogaja v črni skrinjici.

Splošna natančnost določene umetne inteligence na nekem naboru validacijskih podatkov ni tako pomembna kot poznavanje pričakovane natančnosti trenutnega priporočila. Obstajati mora tudi raven razložljivosti, zakaj je umetna inteligenca v določenem primeru samozavestna ali ne. Na primer, ustvarjanje ovoja z uporabo podatkov o usposabljanju z njegovimi oznakami omogoča UI, da se sklicuje na ustrezne podatke, ki jih je uporabila za odločitev.

In to je del težav z razložljivostjo. Umetna inteligenca je lahko zapletena in razpoložljiva orodja to zapletenost prikrijejo razvijalcem. Na primer, pri sistemih umetne inteligence, ustvarjenih brez kode, razvijalci povedo umetni inteligenci, kaj želijo narediti, in ta ustvari svoj program. Toda zaradi te abstrakcije je črna skrinjica veliko bolj neprozorna. Vse, kar lahko razvijalec naredi za preverjanje UI, je, da vnese podatke in preveri, ali je rezultat pravilen. V nekaterih primerih je razložljivosti le malo, če sploh kaj.

Če razvijalec ne razume ali ne more razložiti, kako deluje črna skrinjica, kako se lahko pričakuje, da bo razumel uporabnik? In če je za razumevanje in oceno zanesljivosti umetne inteligence potrebno preveč dela, lahko uporabnik ugotovi, da je bolj učinkovito, če ne dela z umetno inteligenco.

Eden od načinov za reševanje izzivov razložljivosti je dvosmerna komunikacija. Inženirji umetne inteligence prihajajo do težkih spoznanj, da ne razumejo nians tovarniškega dela. “Rešitev” umetne inteligence, ki je bila usposobljena v tovarni, mora biti preprosta za prenos v drugo tovarno, ki je urejena na enak način. Vendar pogosto ni tako. Okoljski dejavniki, kot so osvetlitev, prah, vodni pršilec, kot kamere in množica drugih, na primer naredijo vsako situacijo drugačno. Učinkovita razložljivost vključuje povratni kanal, kjer lahko uporabniki, ki delajo z umetno inteligenco, zagotovijo vpogled v to, kako umetna inteligenca ne izpolnjuje njihovih potreb.«

Etika

Del zaupanja vključuje občutek, da se upoštevajo uporabnikovi najboljši interesi. In ko se uporabniki bojijo ali mislijo da niso bistveni, zaupanje hitro splahne.

Roboti osvobodijo ljudi, da opravljajo naloge, ki jih lahko opravljajo samo ljudje. Roboti pomagajo povečati človekov potencial za zagotavljanje vrednosti. Če pa se umetna inteligenca šteje za bolj zanesljivo od uporabnika, lahko pride do konflikta med uporabnikom in umetno inteligenco. Uporabnik mora biti sposoben reči: ‘Jaz sprejemam odločitve. Umetna inteligenca mi pomaga in naredi tisto, česar ne želim.

Trenutno o etiki pri tehnologiji umetne inteligence razmišlja le 20 % anketiranih proizvajalcev (vir: raziskava Manufacturing 100). Mnogi ljudje mislijo, da je etika povezana s pristranskostjo podatkov. Na primer, umetna inteligenca v merilniku kisikovega pulza je lahko manj učinkovita pri temnejši koži, ker inženirji niso opazili, da senzor ne bere dobro. Eden od izzivov pristranskosti podatkov je, da pristranskost ni namerna. Pogosto je slepa pega, možnost, ki je nihče ni upošteval. Vendar to niso edina etična vprašanja, ki jih je treba upoštevati.«

Zasebnost je tudi lahko bistvena za zaupanje. Operaterji želijo vedeti, kako se uporabljajo podatki o njih. Pisarniški delavci ne želijo, da bi njihovo produktivnost ocenjevali kolikokrat kliknejo z miško, saj to ne odraža natančno dela, ki ga opravljajo. Operaterji menijo enako glede samovoljnih ocen njihove produktivnosti, ki jih je mogoče uporabiti proti njim. Razmislite o uporabniku, ki dobi več težavnih primerov zaradi svojega strokovnega znanja; proizvedejo manj zaradi večje težavnosti. Sistemi se morajo med delovanjem zavedati osebe, vendar nekateri menijo, da je treba osebo odstraniti iz podatkov. Industrija je glede zasebnosti le vrh ledene gore.

Kaj se zgodi, ko UI odpove in je videti, da je odgovoren uporabnik? Razložljivost se mora razširiti, da bi lahko razložili ne samo to, kar se bo zgodilo, ampak tudi to, kar se je dejansko zgodilo. Če uporabniki ne verjamejo, da imajo način, da se zaščitijo, bodo imeli manj zaupanja v sistem. To ni neutemeljen premislek. Inženirji ustvarjajo UI za okolja, v katerih še nikoli niso delali.

Razmislite o etični uporabi podatkov. S predpisi, kot je GDPR, se veliko razpravlja o tem, kdo je lastnik podatkov. Lahko se pojavijo tudi etična vprašanja. Ali lahko na primer podjetje z umetno inteligenco, ki dela s podatki, zbranimi v strankinem obratu, te podatke uporabi za izboljšanje poslovanja strankine konkurence? Takšna vprašanja lahko uničijo zaupanje, če se jih ne obravnava previdno.

Etična vprašanja bodo le postala bolj običajna – in zapletena. Danes so kamere usmerjene v proizvodni trak. Toda ko se te kamere obrnejo in vključijo uporabnika, bo treba upoštevati širok spekter etičnih vprašanj, ki se razlikujejo od države do države.

Kot smo videli, je zaupanje bistvenega pomena za čim večji izkoristek tehnologije umetne inteligence. Z razložljivostjo je mogoče zaupanje zgraditi hitreje in prepričati večji del uporabnikov. In ko se etična vprašanja smatrajo kot pomembna, je to najboljša obramba pred izgubo zaupanja v tehnologijo.