„By the far the greatest danger of Artificial Intelligence is that people conclude too early that they understand it.” – Elizer Yudkowsky

„If you’re not concerned about AI safety, you should be. Vastly more risk than North Korea.” – Elon Musk

Wyniki rocznej ankiety StackOverflow są dostępne tutaj: https://insights.stackoverflow.com/survey/2018

Najbardziej zaciekawiła mnie część ankiety dotycząca etyki w zawodzie programisty i zagrożeń sztuczne inteligencji. Podsumowując:

  • Zaledwie ułamek deweloperów powiedział, że byliby w stanie napisać nieetyczny kod lub że nie muszą brać pod uwagę etycznych implikacji swojego kodu, ale poza tym, respondenci widzą dużą etyczną szarą strefę. Deweloperzy nie są pewni w jaki sposób zaraportowaliby etyczne problemy, i mają różne zdanie na temat tego kto ostatecznie odpowiada za nieetyczny kod.
  • Większość deweloperów zgadza się co do pozytywnych aspektów możliwości jakie oferuje sztuczna inteligencja, nie zgadzając się jednocześnie co do zagrożeń jakie AI ze sobą niesie.

Największe zagrożenia były również dla ankietowanych najbardziej ekscytujące (w domyśle – w pozytywnym sensie). W obu kategoriach pojawiły się takie elementy jak:

  • Zwiększenie automatyzacji pracy
  • Algorytmy podejmujące ważne decyzje
  • Sztuczna inteligencja prześcigająca ludzką (Technologiczna osobliwość – z ang. the singularity)
  • Ewolująca definicja „sprawiedliwości” w algorytmach w opozycji do definicji ludzkiej.

Prawie 73% osób biorących w ankiecie stwierdziło, że bardziej ekscytują ich możliwości związane z AI niż martwią ich zagrożenia z tym związane. Mniej więcej 28% uważa że regulacją zasad tworzenia AI powinny zająć się rządy albo specjalne instytucje do tego powołane. Zaledwie niecałe 8% uważa, że nie ma potrzeby regulowania rozwoju AI.

Pamiętam AI as a Positive and Negative Factor in Global Risk, które czytałem dobrych kilka lat temu i zdanie:

„[…] few people would deliberately choose to destroy the world; a scenario in which the Earth is destroyed by mistake is therefore very worrisome”

Martwią mnie wyniki ankiety, martwi mnie też brak rozważań etycznych wśród developerów. Ciekawą teorię wysnuł mój kolega z pracy, stwierdzając „Programiści są upośledzeni etycznie, z racji tego że pracują na abstrakcjach, w których każda niedoskonałość jest usuwana. Nie ma tam miejsca na sentymenty.” Czy można tak to uogólnić? Nie wiem. Ale coś zarówno fascynującego jak i strasznego siedzi w tej teorii.

O ile budujemy sztucznego asystenta, który pomaga studentom i odpisuje na maile to jeszcze sprawa wydaje się bezpieczna. Sprawa nie jest taka prosta jeżeli budujemy AI, której jedynym zadaniem jest maksymalizować produkcję spinaczy do papierów, to powinniśmy pomyśleć o warunkach zatrzymania tego procesu. Jeżeli natomiast programujemy AI, która ma możliwość zabicia człowieka (choćby czysto teoretyczną) i wtedy jako programista mówimy „Ale przecież manager zlecił mi to w Jirze, mam na to podkładkę…” to widzę potężny problem.

Nawet nie mając na myśli przypadków ekstremalnych (drony bombardujące miasta) uważam, że powinniśmy przynajmniej uregulować AI zanim ona powstanie. Nieskutecznym będzie zabranianie konkretnych działań (np. „AI nie może w sposób bezpośredni lub pośredni przyczynić się do wyginięcia niedźwiedzi Panda, w celu maksymalizacji zysku z transportu jednej chińskiej firmy”). To nie zadziała. Jedyne co może zadziałać to etyka, dobre wzorce do naśladowania i nadzieja, że wszyscy się do tego zastosują a wynikiem tego będzie Friendly AI.

Próbą określenia jak ma działać AI było spisanie przez Future of Life Institute 23 zasad z Asimolar. Zasady które poparły takie nazwiska jak Stephen Hawking, Elon Musk czy Demis Hassabis. Wśród zasad możemy przeczytać między innymi:

  • Celem badań nad sztuczną inteligencją jest to, by stworzyć SI pożyteczną dla człowieka.
  • Badacze tematu SI i programiści powinni działać na zasadach współpracy, zaufania i transparentności.
  • Projektanci i twórcy zaawansowanych systemów sztucznej inteligencji ponoszą odpowiedzialność za to, w jaki sposób inni będą korzystać z efektów ich pracy i mają też wpływ na konsekwencje użytkowania SI.
  • Z ekonomicznych korzyści – dobrobytu stworzonego przez SI powinna korzystać cała ludzkość.

Równolegle od ponad 10 lat działa Machine Intelligence Research Institute w którym to aktywnie udziela się Elizer Yudkowsky którego polecam czytać na jego blogu oraz na lesserwrong.com i wcześniejszej wersji tej strony lesswrong.com. O zagrożeniach można poczytać na wymienionych stronach, lub obejrzeć dość obrazowy przykład tego jak może zachować się AI na podstawie filmu Disneya z Myszką Miki w roli głównej 😉

Nie wiem jak rozwiązać ten problem (który powstał w mojej głowie). Wiem że warto o tym porozmawiać publicznie, bo jeżeli twórcy AI nie chcą brać odpowiedzialności za to co robią (patrz wyniki ankiety SO), to kto ją weźmie?

Jestem ciekaw Waszych opinii na ten temat. Zachęcam Was serdecznie do kontaktu i komentowania.