Sztuczna inteligencja: nieomylna czy stronnicza?

tranformacja cyfrowa © pixabay-geralt

Udostępnij:

Co zrobić, gdy sztuczna inteligencja w procesie rekrutacji dyskryminuje niektórych kandydatów, sama uczy się faworyzować określone grupy użytkowników, źle doradza lub zachowuje się zwyczajnie nieetycznie? Na pytania te trudno dziś jednoznacznie odpowiedzieć. Należałoby bowiem wcześniej znaleźć odpowiedź na najważniejsze z nich: czy sztuczna inteligencja może się rozwijać w oderwaniu od ludzkiej?

Niemieckie Federalne Stowarzyszenie Technologii Informacyjnych Bitkom postanowiło sprawdzić, jaki jest stosunek rodzimych przedsiębiorców do sztucznej inteligencji (AI). Wyniki ankiety przeprowadzonej wśród ponad 100 uczestników zeszłorocznych Targów Hanowerskich okazały się dalekie od oczekiwań: ze sztucznej inteligencji korzysta zaledwie 2% niemieckich firm. Równocześnie jednak oczekiwania z nią związane są bardzo duże, co zdaniem badaczy zapowiada skokowy wzrost tego odsetka w kolejnych latach.

Tego samego zdania jest m.in. firma McKinsey, która prognozuje, że do 2030 r. ze sztucznej inteligencji korzystać będzie 70% firm przemysłowych. Mało tego: skutki jej wdrożenia mają być równie doniosłe jak wynalezienie w XVIII w. maszyny parowej. Zdaniem analityków AI przyczyni się do wzrostu produktywności i rozwoju nowych koncepcji utrzymania ruchu. Wizja ta jest dosyć konkretna – w przeciwieństwie do scenariuszy związanych z etycznymi aspektami funkcjonowania sztucznej inteligencji, które do dziś nie doczekały się głębszej analizy. Czy AI może funkcjonować w oderwaniu od ludzkiej inteligencji? W końcu jej podstawą są konkretne oczekiwania: wzrostu produktywności, usprawnienia utrzymania ruchu i ogólnej optymalizacji procesów wytwórczych. To właśnie one zachęciły przedsiębiorstwa, aby w 2019 r. zainwestować średnio 5% obrotów w cyfryzację swoich zasobów.


Gdy AI musi rozwiązać problem…

Firmy inwestujące w digitalizację mają wobec niej konkretne oczekiwania: powinna ona umożliwić budowę inteligentnych fabryk, w których autonomiczne roboty będą pracowały ramię w ramię człowiekiem, nigdy się nie męcząc, nie popełniając błędów, a nawet identyfikując i korygując błędy popełniane przez ludzi. Podobnie jak w samochodach jutra roboty tego typu mają dysponować sztuczną inteligencją, która na bazie odczytów z czujników i za pomocą licznych efektorów będzie zdolna do podejmowania samodzielnych działań i interakcji zarówno z maszynami, jak i ludźmi. Jak osiągnąć ten cel?

Podstawowym warunkiem jest dostęp do dużych zbiorów danych, które – przetwarzane w czasie rzeczywistym – umożliwią rozpoznanie konkretnych wzorców, opracowanie różnych scenariuszy działań, a wreszcie – wybór i wdrożenie jednego z nich. W praktyce oznacza to, że sztuczna inteligencja w przemyśle – podobnie jak systemy AI stosowane dziś w aplikacjach naukowych, medycznych i w branży marketingu – musi być w stanie rozwiązywać konkretne problemy – i to nie tylko te wskazane przez operatora, ale też pojawiające się na bieżąco. Mimo dynamicznego rozwoju funkcji uczenia maszynowego dziś jeszcze aplikacje na bazie AI nie potrafią do tego stopnia wykroczyć poza tory „myślenia” wyznaczone im przez algorytmy. Robot dysponujący sztuczną inteligencją zaprogramowaną do pracy na określonej linii produkcyjnej nie jest w stanie wykonywać zadań na innej linii. Tego typu sztucznę inteligencję naukowcy określają mianem „słabej” (weak AI), jednocześnie marząc o „silnej” AI, która mogłaby elastycznie wykonywać dowolne czynności.


TOP w kategorii




„Silna” AI: kiedy decyzję podejmuje algorytm

System taki wciąż nie został opracowany: dziś nie jesteśmy jeszcze w stanie tak zaprogramować sztucznej inteligencji, aby posiadała ona zdolności choćby zbliżone do umiejętności człowieka. Musiałaby ona umieć logicznie myśleć i podejmować decyzje w sposób charakterystyczny dla ludzi, w tym np. dokonywać wyborów między dwoma równie złymi alternatywami. Co więcej, powinna przyswajać nowe zasoby wiedzy i być zdolna do samodzielnej, systematycznej nauki. A dodatkowo – co chyba najważniejsze – musiałaby umieć formułować idee w języku naturalnym oraz dysponować możliwością ich klasyfikacji w ramach określonego systemu wartości i względem wyższego lub bardziej odległego celu. Krótko mówiąc: powinna ona posiadać zdolność kierowania swoim zachowaniem i wyborami w oparciu o określone kategorie etyczne, moralne i społeczne. A tego nie da się osiągnąć bez aktywnego udziału człowieka.

Ludzkie podejście do AI

Kwestie etyczne nie dotyczą zresztą tylko „silnej” AI, lecz pojawiają się już dziś także w związku z funkcjonowaniem jej „słabej” wersji. Co zrobić, gdy sztuczna inteligencja na bazie algorytmów uczenia maszynowego podejmuje decyzje, które wydają się dyskryminować określonych użytkowników? Weźmy za przykład instytucje finansowe, które od dawna korzystają z botów – odmiany sztucznej inteligencji. Nierzadko boty te odrzucają wnioski kredytowe tylko dlatego, że zostały one błędnie wypełnione. A co się stanie w sytuacji, gdy robot przemysłowy w inteligentnej fabryce musi rozstrzygnąć między dwoma równie złymi alternatywami, które w obu przypadkach prowadzą do uszkodzenia ciała człowieka?

Właśnie tego typu kwestiami zajmowało się międzynarodowe gremium ekspertów powołane w 2018 r. przy Unii Europejskiej. Efektem jego prac był zestaw zasad etycznych przedstawiony opinii publicznej pod koniec 2018 r. Po konsultacjach społecznych w kwietniu br. opublikowana została ostateczna wersja katalogu, która z kolei stała się podstawą do opracowania rekomendacji działań dla Komisji Europejskiej. Szeroko zakrojone prace zdaniem samego gremium nie przyniosły jednak satysfakcjonujących rezultatów: biorąc pod uwagę wszystko, co wiemy o możliwościach sztucznej inteligencji, przedstawione zasady dosyć powierzchownie traktują problem etycznego wymiaru jej działań. Jak wynika z oficjalnych komunikatów, wskazują one, jak „uzyskać możliwe największe korzyści z AI, jednocześnie do minimum ograniczając związane z tym ryzyko. Najlepszym sposobem jest podejście ukierunkowane na człowieka”.

Oprócz zaleceń efektem prac ekspertów była również checklista zawierająca zestaw pytań umożliwiających sprawdzenie, czy sztuczna inteligencja wykorzystywana jest w sposób bezpieczny. Zdaniem firmy TÜV Rheinland potrzebne byłyby jednak także konkretne zalecenia dla Komisji Europejskiej, które określałyby minimalne wymagania i środki bezpieczeństwa zapewniające, że celem cyfrowej transformacji pozostaje jej twórca, czyli człowiek. Mogłyby one uchronić przedsiębiorstwa przed dylematem, czy zmieniać rentowny sposób działania sztucznej inteligencji tylko dlatego, że jest on do pewnego stopnia tendencyjny. Wynik tego typu rozważań wcale nie jest bowiem tak pewny, jak się może wydawać.

Kontrola lepsza niż zaufanie

Zdaniem TÜV Rheinland pałeczkę powinny tu przejąć Unia Europejska i międzynawowe organizacje (np. ONZ), które winny opracować zestaw jasnych reguł działania i upoważnić zewnętrzne instytucje do kontroli ich przestrzegania. Jedną z tego typu reguł powinno być zapewnienie operatorowi kontroli nad działaniami współpracującej z nim sztucznej inteligencji przez wyposażenie go np. w wyłącznik bezpieczeństwa; inną – przyznanie pracownikom prawa do konsultacji decyzji podejmowanych przez sztuczną inteligencję np. z radą zakładową lub innym tego typu gremium. Zaś operatorzy AI wyposażonej w algorytmy uczenia maszynowego powinni mieć obowiązek regularnego testowania owych algorytmów pod kątem poprawności wyuczonych zachowań.

W przypadku robotów bazujących na sztucznej inteligencji taka regularna kontrola algorytmów ma istotne znaczenie także ze względów bezpieczeństwa. A ponieważ algorytmy te piszą ludzie, powinni oni mieć obowiązek stałego rozwijania swojej wiedzy i kompetencji zawodowych. W przeciwnym razie będziemy świadkami licznych wypadków z udziałem sztucznej inteligencji – podobnie jak to miało miejsce w przypadku maszyn parowych, zanim regularne kontrole zewnętrzne nie przekształciły urządzeń, pojazdów, wind, a nawet elektrowni zasilanych parą w obiekty w pełni bezpieczne dla człowieka. Bez nadzoru ze strony zewnętrznej instytucji oraz stałego rozwoju kompetencji twórców i użytkowników AI korzystanie z bazujących na niej aplikacji będzie zawsze niosło ze sobą pewne ryzyko.

-------------------- 

Sariana Kunze i Markus Dohm
+ + +
Markus Dohm jest kierownikiem Działu Academy & Life Care w firmie TÜV Rheinland

Artykuł ten ukazał się w czasopiśmie

Udostępnij:

Drukuj





Sariana Kunze



Chcesz otrzymać nasze czasopismo?
Zamów prenumeratę
Zobacz również