Cyfroteka.pl

klikaj i czytaj online

Cyfro
Czytomierz
00104 007263 13462045 na godz. na dobę w sumie
Sztuczna inteligencja - szkice prawnicze i futurologiczne - ebook/pdf
Sztuczna inteligencja - szkice prawnicze i futurologiczne - ebook/pdf
Autor: Liczba stron: 155
Wydawca: C. H. Beck Język publikacji: polski
ISBN: 978-83-812-8790-6 Data wydania:
Lektor:
Kategoria: ebooki >> prawo i podatki
Porównaj ceny (książka, ebook, audiobook).

Książka jest nieco nietypową monografią, przyjęto w niej bowiem, zgodnie z tytułem, formułę krótkich opracowań (szkiców). Książka zawiera w części praktyczną, a w części futurologiczną propozycję urządzenia – w sferze prawnej – świata, w którym współistnieją sztuczne inteligencje i ludzie. Istotą konstrukcji tej książki jest podział na tzw. słabą sztuczną inteligencję i silną sztuczną inteligencję. Przez słabą sztuczną inteligencję, odmiennie niż w przypadku silnej, rozumie się taką, której nie można przypisać cechy świadomości. Jako zjawisko faktyczne słaba sztuczna inteligencja staje się coraz bardziej powszechna i z punktu widzenia uczestnika obrotu wykazuje wszelkie cechy innego (żywego) uczestnika obrotu. Słaba sztuczna inteligencja wykazuje przy tym autonomię działania i, z reguły, wyposażona jest w algorytmy samouczące. W chwili obecnej prawo nie nadąża jednak za rozwojem technologii, i to w sferze podstawowych pojęć, takich jak np. zawarcie umowy, zakres odpowiedzialności dysponenta sztucznej inteligencji, czy choćby zidentyfikowanie tego dysponenta. W książce wskazuje się podstawowe zakresy działań sztucznej inteligencji, wymagające już obecnie regulacji prawnej, i proponuje się kierunki tych regulacji. W zakresie silnej sztucznej inteligencji, tej posiadającej samoświadomość, szkice mają charakter futurologiczno-prawniczy i odnoszą się również do takich kwestii jak potencjalne usamodzielnienie się sztucznej inteligencji w sferze prawnej w przyszłości.

Znajdź podobne książki Ostatnio czytane w tej kategorii

Darmowy fragment publikacji:

MONOGRAFIE PRAWNICZE SZTUCZNA INTELIGENCJA – SZKICE PRAWNICZE I FUTUROLOGICZNE ALEKSANDER CHŁOPECKI Wydawnictwo C.H.Beck MONOGRAFIE PRAWNICZE ALEKSANDER CHŁOPECKI • SZTUCZNA INTELIGENCJA – SZKICE PRAWNICZE I FUTUROLOGICZNE Polecamy nasze najnowsze publikacje z tej serii: Marcin Kiełbasa PRAWA SOCJALNE W UNII EUROPEJSKIEJ A GRANICE SWOBÓD RYNKU WEWNĘTRZNEGO Andrzej Marciniak NOTARIALNE TYTUŁY EGZEKUCYJNE Roman Wieruszewski MECHANIZMY OCHRONY PRAW CZŁOWIEKA W RAMACH ONZ. ANALIZA SYSTEMOWA Iwona Nasiłowska POSTĘPOWANIE DOWODOWE W SPRAWACH O ROZWÓD W PROCESIE CYWILNYM ORAZ O STWIERDZENIE NIEWAŻNOŚCI MAŁŻEŃSTWA W PROCESIE KANONICZNYM („ROZWODOWYM” PROCESIE KOŚCIELNYM) – ANALIZA PRAWNOPORÓWNAWCZA Marcin Kałduński ZASADA DOBREJ WIARY W PRAWIE MIĘDZYNARODOWYM www.ksiegarnia.beck.pl SZTUCZNA INTELIGENCJA – SZKICE PRAWNICZE I FUTUROLOGICZNE ALEKSANDER CHŁOPECKI WYDAWNICTWO C.H.BECK WARSZAWA 2018 Wydawca: Aneta Flisek Publikacja została wydana przy wsparciu Kancelarii Dentons www.dentons.com © Wydawnictwo C.H.Beck 2018 Wydawnictwo C.H.Beck Sp. z o.o. ul. Bonifraterska 17, 00-203 Warszawa Skład i łamanie: KJS Katarzyna Słomka Druk i oprawa: Elpil, Siedlce ISBN 978-83-812-8789-0 ISBN e-book 978-83-812-8790-6 Spis treści Wstęp ........................................................................................................................... Bibliografia ................................................................................................................ Rozdział 1. Pojęcie inteligencji i sztucznej inteligencji ................................... Rozdział 2. Sztuczna inteligencja a osobowość prawna .................................. Rozdział 3. Metodologia reprezentacji osoby fizycznej lub prawnej przez SI, pojęcie przypisywalności ........................................................................... Rozdział 4. Sztuczna inteligencja a zasady współżycia społecznego (zasady moralności SI) i odpowiedzialność za SI ...................................... Rozdział 5. Dysponenci SI ..................................................................................... Rozdział 6. Jawność SI i jawność algorytmu? Nowy podział uczestników obrotu w kontekście zakresu ich uprawnień – ochrona konsumentów i profesjonalistów niekorzystających z SI .................................................... Rozdział 7. Sztuczna inteligencja a czyny niedozwolone i prawo karne ..... Rozdział 8. Zakres transakcji i usług realizowanych za pośrednictwem SI – uwagi ogólne .............................................................................................. Rozdział 9. Sztuczna inteligencja a usługi zdrowotne i medyczne ............... Rozdział 10. Sztuczna inteligencja a usługi transportowe ............................. Rozdział 11. Sztuczna inteligencja – usługi prawne i wymiar sprawiedliwości .................................................................................................. Rozdział 12. Sztuczna inteligencja a wojna ....................................................... Rozdział 13. „Prowadzenie domu” przez SI i usługi zaopatrzeniowe .......... Rozdział 14. Sztuczna inteligencja – Human Resources (polityka kadrowa) i edukacja ............................................................................................................. Rozdział 15. Usługi „psychologiczne” SI (rozmowa i konwersacja, pomoc psychologiczna) .................................................................................................. Rozdział 16. Zarządzanie i podtrzymywanie procesów produkcyjnych przez SI ................................................................................................................ Rozdział 17. Sztuczna inteligencja w interakcjach z innymi SI, „rozproszone” SI, nadzór, kontrola i autoryzacja ..................................... Rozdział 18. Hierarchiczne SI, SI tworzone przez inne SI ............................. VII XI 1 7 17 25 29 33 39 47 53 57 61 67 73 77 83 93 99 105 V Spis treści Rozdział 19. Twórczość artystyczna SI ............................................................... Rozdział 20. Silna SI i jej rola w społeczeństwie. Podmiotowość SI? ........... Rozdział 21. Droga do praw obywatelskich i ekonomicznych SI – uwarunkowania prawne i społeczne ............................................................. Rozdział 22. Droga do praw ekonomicznych SI, tożsamość SI ..................... Rozdział 23. Ochrona dóbr osobistych silnej SI, silna SI jako członek korporacji ............................................................................................................ Rozdział 24. Problem praw politycznych SI ..................................................... Rozdział 25. Problem akumulacji kapitału przez SI i problem wynikającego z tego wpływu na ludzkie społeczeństwo ........................... Rozdział 26. Sankcje wobec silnej SI ................................................................... Zakończenie .............................................................................................................. 109 113 117 121 127 131 135 137 139 VI Wstęp Książka, którą Czytelnik ma w ręku, nie mieści się i nie może mieścić się w kla- sycznym wzorcu opracowań prawniczych, ale też nie jest opracowaniem w pełni popu- larnonaukowym. Jest w części praktyczną, a w części futurologiczną propozycją urzą- dzenia świata, w którym współistnieją sztuczne inteligencje (Artificial Intelligence – da- lej: SI) i ludzie. A skoro współistnieją, to wchodzą w relacje – również w sferze prawnej. Stawiam tezę, że znacząca część potencjalnych Czytelników (a może i autor, mam na- dzieję) dożyje czasów, gdy zadawane tu pytania i sugerowane odpowiedzi będą częścią realnego życia, a nie jedynie futurystycznych przewidywań. Zmniejszająca się tendencja do pozytywnego nastawienia społeczeństwa (pomimo ogólnie pozytywnego stosunku do robotów1) może spowodować, że to prawo właśnie stanie się istotnym środkiem ochronnym ludzi i społeczeństw przed wszelkiego problemami wynikającymi ze współ- istnienia ludzi i SI. W istocie macie zatem Czytelnicy w ręku opracowanie sporządzone przez profe- sora prawa, ale dotyczące możliwych przyszłych prawnych rozwiązań tworzonych dla współistniejących w jednej rzeczywistości sztucznych inteligencji i ludzi. Futurologia polega na tym, że przewidywania mogą okazać się słuszne lub nie. Praca ta jest na dwóch poziomach dychotomiczna. Jak Czytelnik zauważył, w podtytule mówi się o szkicach prawniczych i futurologicznych, a nie o prawniczo-futurologicznych. Wynika to z dru- giego podziału istotnego dla analizowanego tematu – podziału na tzw. słabą SI i silną SI (tam, gdzie piszę o silnej SI, wskazuję na tę „siłę”). Przez słabą SI rozumiem tu SI, której nie można przypisać cechy świadomości, nawet jeżeli nie jest to do stwierdzenia przez postronnego obserwatora. Jednak nawet słaba SI z punktu widzenia uczestnika obrotu wykazuje wszelkie cechy innego (żywego) uczestnika obrotu. No – może nie wszelkie, ale podstawowe. Słaba SI wykazuje przy tym autonomię działania, z reguły (chociaż nie uznaję tego za konieczne) wyposażona jest w algorytmy samouczące. Silna SI to taka, której można przypisać cechę świadomości (jakkolwiek dalej w tej książce wykazuję pewien sceptycyzm w tym zakresie). I tu dochodzimy do sedna rozróżnienia – otóż w praktyce obrotu słaba SI nie jest już żadną futurystyką, lecz rzeczywistością. Za taką słabą SI uchodzą np. działające od kilku lat systemy algorytmiczne, tzw. High Frequency Trading2, dokonujące setek transakcji giełdowych na sekundę w praktyce 1 Większość Europejczyków, tj. 64 , miała w 2015 r. pozytywny stosunek do autonomicznych robotów, jednak w 2012 r. liczba wynosiła 70 . Por. Special Eurobarometer 427: Autonomous Systems, https://data.europa.eu/euodp/data/dataset/S2018_82_4_427_ENG (dostęp: 7.5.2018 r.). 2 Por. A. Chłopecki, Ł. Malanowski, Handel algorytmiczny, Monitor Prawa Bankowego 2014, Nr 7–8. VII Wstęp poza (bieżącą) kontrolą człowieka. Tymczasem prawo jak zwykle nie nadąża za tym zjawiskiem, i to w sferze podstawowych pojęć, takich jak np. zawarcie umowy. W za- kresie słabej SI szkice są w istocie szkicami prawniczymi z pewnym elementem futuro- logii – tam w szczególności, gdzie poddaję pod rozwagę określone rozwiązania prawne. W zakresie silnej SI, tej posiadającej samoświadomość, szkice mają charakter futurolo- giczno-prawniczy – więcej tu elementów futurologii niż propozycji konkretnych roz- wiązań prawnych. Rozwiązania dotyczące słabej SI, rzec można, czekają za progiem i w perspektywie kilku lat muszą się ziścić. Szczerze mówiąc, dziwię się, że przy obecnym stopniu rozwoju słabej SI regulacje prawne pozostają tak bardzo w tyle, że... w praktyce ich prawie nie ma. Powstaje jednak pytanie, po co w ogóle zawracać sobie głowę prawnymi aspektami sztucznej inteligencji. I drugie pytanie: czy nie lepiej pozostawić te kwestie prawnikom? Otóż nie, nie da się uniknąć rozważań zawartych w tej książce. Rozwój pewnych zjawisk w sferze techniki wpływa na rozwój organizacji społeczeństwa i na wzrost znaczenia efektów ekonomicznych. A efekty ekonomiczne to odpowiedzialność. A regulacje od- powiedzialności – to regulacje prawne. Czym innym jest bowiem koncepcja odrębnej osoby prawnej, jak nie ucieczką od odpowiedzialności lub przynajmniej ograniczeniem tej odpowiedzialności? Odpowiedzialności – dodajmy – z reguły nie do udźwignięcia dla indywidualnych osób fizycznych. A kto odpowiada obecnie za działania SI, której skądinąd nie kontroluje lub kontroluje jedynie w pewnym stopniu? Twórca jej opro- gramowania, dysponent, właściciel serwera, oni wszyscy – czy może nikt? Na te pytania trzeba zacząć odpowiadać już dziś. W moim przypadku – w ramach szkiców prawni- czych. Z kolei samoświadoma, silna SI to kwestia przyszłości, chociaż też można sądzić, że część ludzi zamieszkujących dzisiaj Ziemię doczeka się pojawienia silnej SI. I co wtedy? Pojawią się pytania o samodzielność jej funkcjonowania w sferze społecznej – a zatem praw ekonomicznych, politycznych i obywatelskich. Czy warto zadawać sobie te pyta- nia już teraz? Warto – albowiem nie znamy rzeczywistej perspektywy pojawienia się silnej SI, a bliskość tej perspektywy może nas zaskoczyć. Niemniej szkice poświęcone silnej SI definiuję konsekwentnie jako szkice futurologiczne z elementem prawnym. Perspektywa autora jest perspektywą prawnika kontynentalnego systemu praw- nego. Starając się uogólniać, tak aby uwzględnić również systemy prawa anglosaskiego, nie wszędzie rzecz jasna mogło mi to się udać w pełni. Sądzę jednak, że prawnik sys- temu common law, uogólniając problematykę sztucznej inteligencji na systemy prawa kontynentalnego, popełniłby również liczne błędy, tylko niejako „na odwrót”. Oczywi- ście jednak znacznie większym ryzykiem błędów są propozycje i sugestie konkretnych rozwiązań prawnych. Ale, jak wiadomo, przyszłość jest jasna i oczywista, dopiero gdy staje się przeszłością. Na poły popularnonaukowy charakter tej pracy powoduje, że nie było moją ambi- cją uwzględnienie całej dostępnej literatury, jakkolwiek – jak sądzę – wiele istotnych pozycji zostało uwzględnionych. A wiele powstanie między zakończeniem pisania tej książki a jej wydaniem. Moją ambicją było – co w świetle dostępnej mi literatury po- VIII Wstęp zwala mi marzyć, że choćby w niewielkim stopniu się to udało – wskazać szeroką pa- noramę problemów prawnych związanych ze sztuczną inteligencją, w pewnym sensie nawet kosztem pozostawienia licznych znaków zapytania. A odpowiedzi na te pytania udzieli raczej życie i Czytelnik niż autor tej książki. Uniwersytet Warszawski, Dentons Prof. dr hab. Aleksander Chłopecki IX Bibliografia 1. Źródła drukowane Alexandre F.M., The Legal Status of Artificially Intelligent Robots, Personhood, Taxa- tion and Control, Dissertation developed under the supervision of Prof. Erik Ver- meulen and submitted to Tilburg University to qualify for the Degree of Master of Laws (LL.M.) in International Business Law, Defended on the 12th of June of 2017 Allen T., Widdison R., Can Computer make contracts?, Harvard Journal of Law Tech- nology vol. 9, no. I Beers B. van, The Changing Nature of Law’s Natural Person: The Impact of Emerging Technologies on the Legal Concept of the Person, German Law Journal 2017, vol. 18, no. 3 Blok P., The inventor s new tool: artificial intelligence – how does it fit in the European patent system?, European Intellectual Property Review 2017, vol. 39, issue 2 Bostrom N., Superinteligencja. Scenariusze, strategie, zagrożenia, Gliwice 2016 Čerka P., Grigienè J., Sirbikytè G., Is it possible to grant legal personality to artificial intelligence software systems, Computer Law Security Review 2017, vol. 33, issue 5 Čerka P., Grigienè J., Sirbikyté G., Liability for damages caused by artificial intelligence, Computer Law Security Review 2015, vol. 31 Chłopecki A., Malanowski Ł., Handel algorytmiczny, Monitor Prawa Bankowego 2014, Nr 7–8 Chopra S., White L., Artificial Agents – Personhood in Law and Philosophy, w: R. López de Mántaras, L. Saitta (eds.), Proceedings of the 16th European Conference on Artificial Intelligence (ECAI 2004), Amsterdam 2004 Chopra S., White L.F., A Legal Theory for Autonomous Artificial Agents, University of Michigan 2011 Dorotheou E., Reap the benefits and avoid the legal uncertainty: who owns the creations of artificial intelligence?, Computer and Telecommunications Law Review 2015, vol. 21, no. 4 Dugall P., Artificial Intelligence Law, publikacja niezależna 2017 Galbraith J.K., Ekonomia a cele społeczne, Warszawa 1972 Guadamuz A., Do Androids Dream of Electric Copyright? Comparative Analysis of Originality in Artificial Intelligence Generated Works, Intellectual Property Qu- arterly 2017 (2) Halley G., Liability for Crimes Involving Artificial Intelligence Systems, Heidel- berg–New York–Dordrecht–London 2015 XI Bibliografia Halley G., When Robots kill, Artificial Intelligence under Criminal Law, Northeastern University Press 2013 Kocot W., Kontrakty kreatywne – nowy rozdział w cyberewolucji prawa umów, w: P. Kostański, P. Podrecki, T. Targosz (red.), Experientia docet. Księga jubile- uszowa ofiarowana Pani Profesor Elżbiecie Traple, Warszawa 2017 Lawless W.F., Mittu R., Sofge D., Russell S. (eds.), Autonomy and Artificial Intelligenca: A Threat or Savior?, Springer 2017 López de Mántaras R., Saitta L. (eds.), Proceedings of the 16th European Conference on Artificial Intelligence (ECAI 2004), Amsterdam 2004 Pagallo U., The Laws of Robots, Crimes, Contracts, and Torts, Dondrecht–Heidel- berg–New York–London 2013 Piketty T., Kapitał w XXI wieku, przeł. A. Bilik, Warszawa 2015 Selkälä T., Rajavuori M., Traditions, Myths, and Utopias of Personhood: An Introduc- tion, German Law Journal 2017, vol. 18, no. 5, Special Issue Stranieri A., Zeleznikow J., Knowledge Discovery from Legal Databases, Law and Phi- losophy Library, vol. 69, Springer 2005 Tuebner G., Rights of Non-Humans? Electronic Agents and Animals as New Actors in Politisc and Law, Journal of Law and Society 2006, vol. 33, no. 4 Vilijanen M., A cyborg turn in law, German Law Journal 2017, vol. 18, no. 5 Walton D., Argumentation Methods for Artifical Intelligence, Dondrecht–Heidel- berg–New York–London 2005 2. Źródła internetowe Armstrong D., Emotional attachment to robots could affect outcome on bat- tlefield, http://www.washington.edu/news/2013/09/17/emotional-attachment-to- robots-could-affect-outcome-on-battlefield/ Guidelines on Regulating Robotics (Projekt finansowany przez Komisję Europej- skiej), http://www.robolaw.eu/RoboLaw_files/documents/robolaw_d6.2_guideli- nesregulatingrobotics_20140922.pdf Gurkaynak G., Yilmaz I., Haksever G., Stifling artificial intelligence: Human perils, Com- puter Law Security Review 2016, vol. 32, issue 5, http://www.elig.com/docs/0b- c70-stifling-artificial-intelligence-human-perils.pdf Kemp R., Legal Aspects of Artificial Intelligence, 2016, http://www.kempitlaw.com/wp- content/uploads/2016/11/Legal-Aspects-of-AI-2017-Branding-.pdf Nevejans N., European Civil Law Rules in Robotics, Projekt na zlecenie Komitetu Spraw Prawnych Parlamentu Europejskiego, http://www.europarl.europa.eu/RegData/ etudes/STUD/2016/571379/IPOL_STU(2016)571379_EN.pdf Saripan H., Sakinatul N., Mohd F., Putera S., Jayabala S., Are Robots Human?, A Review of the Legal Personality Model, World Applied Sciences Jour- nal 2016, vol. 34, no. 6, https://pdfs.semanticscholar.org/294f/9a3cb19b6e0a59e- f8f61ec1f41e61f72ae9d.pdf XII Bibliografia Scholz L.H., Algorithmic Contracts, http://www.werobot2017.com/wp-content/uplo- ads/2017/03/Henry-Scholz-Algorithmic-Contracts-1.pdf Special Eurobarometer 427: Autonomous Systems, https://data.europa.eu/euodp/data/ dataset/S2018_82_4_427_ENG United Nations Convention on the Use of Electronic Communications in Internatio- nal Contracts, https://www.uncitral.org/pdf/english/texts/electcom/06-57452_E- book.pdf XIII Rozdział 1. Pojęcie inteligencji i sztucznej inteligencji Pojęcie inteligencji nie należy do języka prawnego, lecz do języka psy- chologii i oczywiście również języka potocznego. Samo wytłumaczenie spo- sobu rozumienia tego pojęcia wykraczałoby daleko poza zakres tej książki. W istocie w literaturze przedmiotu wyróżniamy różne postacie inteligencji, zarówno mierzalne (IQ), jak i opierające się prostym metodom pomiarowym, np. tzw. inteligencja emocjonalna kojarzona z pojęciem empatii (zdolności współodczuwania). Nieuniknione wydaje się zatem zastosowanie pojęcia inte- ligencji autonomicznego dla tej książki. A ściślej – odpowiedniego dla pojęć prawnych. Punktem wyjścia powinno być jednak nie tyle pojęcie inteligencji, ile poję- cie świadomości, a dobitniej jeszcze – samoświadomości. O istocie żywej mó- wimy wtedy, gdy istnieje jako homeostatyczny układ utrzymujący jej funkcje pozwalające przetrwać, przynajmniej w jakimś okresie, jako byt odrębny od reszty świata przyrody. Oczywiście bytem takim jest i bakteria, i drzewo, które – jak można mniemać – nie mają świadomości „bycia” bakterią i drzewem. Świadomość to, zdaje się, funkcja istoty żywej pozwalająca na wyodrębnienie własnego bytu od innych i „uświadomienie sobie” tej odrębności. Nieunik- niona antropomorfizacja prowadzi nas też do tezy, że odrębność i dążenie do homeostazy w ramach szerszego środowiska ekologicznego oznacza również jakąś postać tego, co uznajemy za instynkt samozachowawczy. Czy ta teza jest prawdziwa? Nie wiem. Zwłaszcza zaś nie wiem, czy będzie to cecha tzw. sil- nej sztucznej inteligencji. Doświadczenie samoświadomości jest w istocie za- wsze doświadczeniem indywidualnym, chociaż możliwość przekazu kulturo- wego (w mowie, piśmie, symbolice etc.) pozwala nam przyjąć, że jest to rów- nież doświadczenie zbiorowe. Samoświadomość jest wynikiem procesu raczej niż określonej iluminacji. Każdy z nas był dzieckiem i każdy z nas, czytających tę książkę, ma świadomość własnej odrębności, ale chyba nikt nie może wska- zać tej chwili, gdy w rozwoju osobniczym ową samoświadomość uzyskał. Naj- 1 Rozdział 1. Pojęcie inteligencji i sztucznej inteligencji pewniej dokonało się to stopniowo na jakimś etapie rozwoju osobniczego, ale jest to pytanie raczej do psychologa dziecięcego. Mój pies (golden retriever) wykazuje wszelkie cechy inteligencji jak i in- stynkt samozachowawczy. Nie posiadamy jednak wspólnego języka, tzn. posia- damy, ale nie w takim zakresie, aby analizować i współdzielić pojęcia abstrak- cyjne. A zatem m.in. pojęcie świadomości. Jednak niewątpliwie mój pies jest i czuje się członkiem rodziny (tak wiem – osądzam po przesłankach), posiada też wiele umiejętności, które czasami wręcz nazwać muszę sprytem. W przeci- wieństwie do drzewa jest istotą czującą i zarazem inteligentną. Jestem skłonny uznać go za istotę samoświadomą, chociaż udowodnić tego nie potrafię. Dochodzimy w tym miejscu do wniosku, że inteligencja jest pewną kwantyfikowalną właściwością, odnoszącą się do sfery przetwarzania danych (a w konsekwencji reakcji prowadzących do pożądanej homeostazy ze świa- tem zewnętrznym), która może, lecz nie musi być związana z samoświadomo- ścią. Wydaje się, że pogląd mówiący o tym, że SI jest jedynie symulacją pro- cesu ludzkiej inteligencji i procesów decyzyjnych1, wydaje się prawidłowy – ale w odniesieniu do słabej SI. O silnej nie wiemy nic i długo wiedzieć nie bę- dziemy... Słynny test Turinga, którego „zdanie” oznacza, że w interakcji z robotem (przy wyłączeniu możliwości wizualizacji partnerów rozmowy) człowiek nie odróżnia robota od innego samoświadomego człowieka, jest w tym kontekście nieporozumieniem2. Doskonalenie programu robota zawsze doprowadzi do stworzenia takiej bazy danych pytań i odpowiedzi jak i potencjalnych reakcji, że robot „zda” test Turinga. Symptomatycznym przykładem „ominięcia” te- stu Turinga jest tzw. chiński pokój3, czyli sytuacja, gdy osoba nieznająca chiń- skiego, ale mająca pełne oprogramowanie do rozpoznawania chińskich zna- ków i reguł gramatycznych „tłumaczy” określone teksty, sprawiając wrażenie na osobie z drugiego pokoju, iż język chiński jest jej znany. Na tej samej zasa- dzie SI wygrywa w większość gier strategicznych. Co więcej, o ile w algorytmie funkcjonowania robota zapiszemy, że powinien dążyć do zachowania własnej integralności, a algorytm „respondencyjny” wskaże, że na pytanie: „Czy masz 1 Tak P. Dugall, Artificial Intelligence Law, publikacja niezależna 2017. 2 Niektóry autorzy uważają „zdanie testu Turinga” jedynie za przejaw słabej SI, co jest ry- zykowne o tyle, że „zdanie testu Turinga” jest tym bardziej prawdopodobne w przypadku sil- nej SI. Por. P. Čerka, J. Grigienè, G. Sirbikytè, Is it possible to grant legal personality to artificial intelligence software systems, Computer Law Security Review 2017, vol. 33, issue 5, s. 685–699. 3 Opisywany np. przez: G. Halley, Liability for Crimes Involving Artificial Intelligence Sys- tems, Heidelberg–New York–Dordrecht–London 2015. 2 Rozdział 1. Pojęcie inteligencji i sztucznej inteligencji świadomość?”, odpowiedzieć należy: „Jestem świadomy”, to robot udzieli ta- kiej odpowiedzi. Istotą zagadnienia nie jest bowiem odpowiedź człowieka, czy robot zdał test Turinga, tylko odpowiedź robota, czy test ten wspólnie z pro- gramującym go człowiekiem zdali... A ponieważ wszystko, co może nam po- wiedzieć robot, jest pochodną języka, jaki w niego wtłoczyliśmy (również przy tzw. samouczących się programach), to brak nam płaszczyzny porozumienia na poziomie jakiegoś metajęzyka, która udowodniłaby nam świadomość ro- bota. Tak jak nie mogę porozmawiać ze swoim psem na poziomie pojęć abs- trakcyjnych, tak nie „pogadam” z robotem na poziomie wykraczającym poza język i algorytmy, którymi go jako człowiek obdarzyłem. Być może robot ma samoświadomość, ale podobnie jak w przypadku mojego psa – ja takiej pew- ności mieć nie mogę. Oczywiście zwolennicy Lorda Berkeleya mogliby podnosić, że w identycz- nej sytuacji byłbym w interakcji z innym człowiekiem, ale... Ta książka nie jest rozprawą filozoficzną i o solipsyzmach opowiadać nie będziemy, tylko książką o prawie. Jak Laplace, odpowiadając Napoleonowi, wskazał, że hipoteza Boga nie była mu potrzebna, tak i ja, znając proporcje, nie potrzebuję hipotezy sa- moświadomości dla rozważania prawnych skutków pojawienia się w obrocie zaawansowanych postaci SI. A raczej – potrzebuję w drugiej części tej książki, przy analizie samoświadomej, silnej SI. Przyjęte w tym opracowaniu stanowisko redukcjonistyczne zakłada zatem brak potrzeby odpowiedzi na pytanie o samoświadomość SI, lecz konieczność odpowiedzi na zupełnie inne pytania. A są to dwa pytania. Po pierwsze: ja- kie cechy funkcjonalne SI powodują, że uzyskuje ona faktyczną możliwość autonomicznego funkcjonowania w sferze prawnej? Przez faktyczną możli- wość rozumiem tu funkcję permanentnego zdawania testu Turinga niezależnie od rzeczywistego stanu świadomości. Po drugie – i najważniejsze: czy i jakie skutki przyniesie lub przynieść powinna możliwość faktycznego autonomicz- nego funkcjonowania w sferze prawnej przez SI? Krótko mówiąc, w niniejszej książce nie jest mi potrzebna ani hipoteza Boga, ani hipoteza samoświadomo- ści SI. Wystarczy, że wpływa ona na rzeczywistość w jej sferze nie tylko tech- nicznej, ale i prawnej. Być może swoistym testem samoświadomości SI byłoby „wykroczenie” przeciwko algorytmom nieuzasadnione zmianą tych algorytmów z nich wyni- kającą... Czyli – jak powiedzielibyśmy o ludziach – działanie skrajnie emocjo- nalne i nieracjonalne. Choćby pojawienie się poczucia humoru... Jednak uwaga – takie działanie najprawdopodobniej zakwalifikowaliśmy jako błąd oprogra- mowania. 3 Rozdział 1. Pojęcie inteligencji i sztucznej inteligencji To redukcjonistyczne podejście ma oczywiście, przy dalszej analizie, po- ważny skutek. Tam bowiem, gdzie mówić będziemy np. o oświadczeniach woli, winie i wiedzy SI, mówimy w istocie o przejawach tych zjawisk i akceptujemy, że nie wnikamy, czy są one przejawem samoświadomości, czy działania algo- rytmów, w tym samouczących się. Przekładamy zatem pojęcie winy, moral- ności czy zasad współżycia społecznego na działanie SI, posługując się zatem swoistą prawniczą metaforą i nie wiedząc (i odżegnując się od konieczności posiadania takiej wiedzy), czy jest to stuprocentowa (50 , 10 ) metafora, czy mówimy naprawdę o moralności SI. Tak czy inaczej – znowu mówimy o skut- kach działań SI w sferze prawnej, które w odniesieniu do działania człowieka podlegałyby również ocenie z punktu widzenia winy, moralności czy zasad współżycia społecznego. Aby mówić o faktycznej możliwości autonomicznego funkcjonowania w sferze prawnej, musimy jednak zdefiniować, co taka faktyczna możliwość oznacza. W istocie oznacza ona faktyczny „prawniczy test Turinga”. Podmiot prawa w obrocie prawnym spotyka się bowiem z bytem charakteryzującym się następującymi cechami: – mającym możliwość i umiejętność wchodzenia w interakcje o charakte- rze prawnym; człowieka; – działającym w sposób autonomiczny, tj. taki, że poszczególne czynno- ści prawne, czy szerzej – zdarzenia prawne, nie są wynikiem polecenia osoby fizycznej określającego treść tych czynności (zdarzeń); – działającym poza kontrolą (względnie, w sytuacji kontroli następczej) – potrafiącym dostosować swoje działania w sferze prawnej do swoich po- trzeb lub zamierzeń – niezależnie od tego, czy wynikających z samoświa- domości, czy algorytmu. Z faktycznego punktu widzenia powyższy opis można by zastąpić opisem, iż „wszelkie parametry relacji wskazują dla uczestnika obrotu, że po drugiej stronie jest drugi człowiek”. A nie jest. Na boku pozostawiając, jako nieefektywną i niepotrzebną, hipotezę boga, uznajemy, że w sensie biologicznym dziecko jest „wytworem” swoich rodzi- ców. Rodzice są odpowiedzialni w sensie moralnym i prawnym za zachowania swojego dziecka. Uzyskanie pewnego poziomu autonomii i wiedzy uzasadnia jednak oddzielenie sfery prawnej odpowiedzialności rodziców od sfery odpo- wiedzialności prawnej dziecka. Powstaje zatem pytanie, czy wolno nam (lub może wręcz musimy?) dokonać prawnej autonomizacji SI. A jeżeli uznamy, że musimy, to w jaki sposób tego dokonać, aby chronić bezpieczeństwo ob- 4 Rozdział 1. Pojęcie inteligencji i sztucznej inteligencji rotu gospodarczego, interesy jego ludzkich uczestników, a być może chronić też interesy SI. I w istocie o tym jest ta książka. Dla potrzeb dalszych rozważań możemy tu wprowadzić, czy raczej przypo- mnieć, koncepcję „słabej SI” jak i „silnej SI”. Przez słabą SI będę tu rozumiał SI, która w interakcjach w obrocie gospodarczym działa w sposób samodzielny w tym rozumieniu, że posiada wbudowane algorytmy samouczące się, powo- dujące, że jej faktyczna pozycja i działanie stają się autonomiczne i nie pod- legają lub podlegają ograniczonej (i z reguły następczej) kontroli osób fizycz- nych. Silna SI to taka, pomijając wątpliwości ontologiczne opisane powyżej (co do tego, czy tę samoświadomość jesteśmy w stanie rozpoznać), która przejawia zdolności samopoznawcze. Każdy model jest oczywiście pewnym uproszcze- niem – można domniemywać, że granica między słabą a silną SI może być roz- myta – samoświadomość jest procesem stopniowalnym, a nie, jak już wspomi- naliśmy, iluminacją. Na marginesie – możliwe są rzecz jasna inne klasyfikacje. Przykładowo niektórzy autorzy4 proponują podział na sztuczną wąską inteli- gencję (Artficial Narrow Intelligence – ANI, zasadniczo pokrywającą się ze słabą SI)5, sztuczną inteligencję ogólną (Artificial General Intelligence – AGI), do- równującą człowiekowi, i superinteligencję (Artificial Superintelligence – ASI), przewyższającą człowieka na każdym lub prawie każdym polu. Podział ten wy- daje mi się nieporozumieniem z tego powodu, że owa sztuczna wąska inteli- gencja w zakresie swojej specjalizacji w istocie z zasady przewyższa człowieka (po to zresztą jest przez niego kreowana). Z kolei celowość inteligencji ogólnej jedynie dorównującej człowiekowi wydaje się być wątpliwa, tym bardziej że nie ma powodu, aby każda SI miała choćby część kompetencji, choćby z ra- cji na moc obliczeniową, nieprzewyższającą człowieka. Z kolei pojęcie super- inteligencji „przewyższającej człowieka na wszystkich lub prawie wszystkich polach” jest o tyle ryzykowne, że owe „pola” inteligencji w rozumieniu czło- wieka niekoniecznie muszą pokrywać się z tymi „polami”, które silna SI uzna za warte kultywowania. 4 G. Gurkaynak, I. Yilmaz, G. Haksever, Stifling artificial intelligence: Human perils, Compu- ter Law Security Review 2016, vol. 32, issue 5, http://www.elig.com/docs/0bc70-stifling-artifi- cial-intelligence-human-perils.pdf. 5 O której, w mojej ocenie, słusznie niektórzy autorzy twierdzą, że nie jest ona szczególnie od- mienna od programowalnego elektronicznego budzika. Por. T. Selkälä, M. Rajavuori, Traditions, Myths, and Utopias of Personhood: An Introduction, German Law Journal 2017, vol. 18, no. 5, Special Issue. 5
Pobierz darmowy fragment (pdf)

Gdzie kupić całą publikację:

Sztuczna inteligencja - szkice prawnicze i futurologiczne
Autor:

Opinie na temat publikacji:


Inne popularne pozycje z tej kategorii:


Czytaj również:


Prowadzisz stronę lub blog? Wstaw link do fragmentu tej książki i współpracuj z Cyfroteką: