Roboetyka - czy jest już dziś potrzebna?

Roboetyka - wymysł futurologów czy kolejny z działów etyki stosowanej powstały na skutek rozwoju technologicznego? Czy rzeczywiście istnieje potrzeba zajmowania się problemami pojawiającymi się w wyniku interakcji robotów z ludźmi i innymi istotami żywymi i sztucznymi? Czy zajmowanie się tymi problemami oznacza automatycznie powstanie częściowo autonomicznej dziedziny etycznych rozważań? Innymi słowy czy roboetyka jest nam już dziś potrzebna?

 

Przeglądając program telewizyjny, czy też wybierając się do kina, często napotykamy na filmy, w których człowiek współpracuje bądź walczy z robotami. Na ekranie oglądamy nie tylko wizje przyszłości, ale również adaptacje powieści i legend powstałych kilkaset lat temu. Fascynacja sztucznymi istotami sięga bowiem znacznie wcześniej niż powieści Asimova czy filmy o Terminatorze. Niezależnie jednak od epoki powstania, w dziełach tych spotyka się różne konflikty moralne i zagadnienia, które są podobne do problemów rozwiązywanych przez etyków.

Wydawać  by się mogło, że jeśli etycy prawią coś o robotach, to są to jedynie spekulacje dotyczące wydarzeń z bliżej nieokreślonej przyszłości, które mogą nigdy nie nastąpić. Nic jednak bardziej mylnego. Wraz z rozwojem technologicznym rośnie świadomość problemów etycznych, na które narażeni są producenci, konstruktorzy, użytkownicy i same… roboty, czego dowodem jest nowo powstały dział etyki stosowanej – roboetyka. Zarówno sama dyscyplina, jak i jej nazwa, ma bardzo krótką historię – ich powstanie datuje się na rok 2004.

Czym dokładnie zajmuje się ten rodzaj etyki? W centrum jej zainteresowań znajdują się:

  • systemy etyczne wbudowywane do robotów;
  • systemy etyczne stosowane przez roboty;
  • systemy etyczne stosowane przez inżynierów podczas konstrukcji robotów;
  • systemy etyczne stosowane przez użytkowników robotów;
  • systemy etyczne stosowane przez producentów robotów;
  • sposoby, w jaki ludzie traktują roboty.

Czy roboetyka jest rzeczywiście już dziś potrzebna? Czy nie wystarczy stosować rozwiązań z innych dyscyplin etycznych do zaistniałych problemów czy konfliktów? Okazuje się, że nie. Przede wszystkim zaznaczyć należy, że interakcje człowieka z robotem różnią się od interakcji, w jakie wchodzi on ze zwykłymi przedmiotami. Co więcej, pod wieloma względami współdziałanie z robotem bardziej przypomina współdziałanie z innym człowiekiem. Ponadto roboty są zdolne do wykonywania coraz trudniejszych zadań i w tym sensie bardziej niż przedmioty martwe przypominają żywe zwierzęta. Dodatkowo coraz powszechniejsze stosowanie robotów do różnych działań stawia pytania, z którymi nie spotykały się inne dziedziny etyki stosowanej. Przykładem takiego typu problemów jest stosowanie robotów na polu walki czy wpływ robotów zabawek na rozwój osobowy dziecka.

W ramach pierwszego zagadnienia dyskusyjne jest stosowanie robotów autonomicznych, które mogą samodzielnie podejmować decyzje na polu walki, to jest pierwszej linii ognia. Tego typu roboty są zdolne do zabicia człowieka. Oczywiście międzynarodowe prawo zabrania stosowania takich robotów, jednak istnieją poważne obawy, że kraje, w których nie przestrzega się tych zakazów, będą je łamać. Zaznaczyć należy, że problem ten znacznie różni się od sytuacji, w której to człowiek posługuje się bronią (białą bądź palną), gdyż w tym pierwszym przypadku to nie od człowieka zależy, czy robot “wystrzeli”. Z zagadnieniem tym związane jest inne, a mianowicie problem odpowiedzialności. Kto w takim przypadku odpowiada za zachowanie robota? To i podobne pytania będą pojawiać się coraz częściej, gdyż służba wojskowa robotów staje się coraz bardziej powszechna (w 2007 roku w Iraku służyło 5000 różnego rodzajów robotów w armii USA).

Drugie wspomniane zagadnienia dotyczy wpływu robotów na rozwój osobowy dziecka. Czy zabawa, bądź innego typu interakcja, od wczesnych lat życia z robotami, które swoich zachowaniem imitują organizmy żywe, jest bezpieczna? Czy człowiek wychowujący się w takim otoczeniu będzie umiał odróżnić istoty sztuczne od żywych? Choć sytuacje te mogą wydać się bardzo nieprawdopodobne, to w krajach wysokorozwiniętych, gdzie dostęp do robotów jest ułatwiony, mogą się one rzeczywiście pojawić. Przykładem niech będą badania przeprowadzone przez Petera Khana i Batya Friedmana, którzy przeprowadzili ankietę wśród nieletnich użytkowników robotów przypominających psa. Pośród badanych znalazła się niewielka grupa dzieci (12%) uważająca, że posiadane przez nich roboty powinny być szanowane i posiadać prawa (takie jak zwierzęta czy ludzie). Przypadek ten pokazuje, że dzieci te mogą w różnych sytuacjach w hierarchii wartości wyżej postawić „zdrowie” robota niż drugiego człowieka.

Wymienione dwa przykłady nie zamykają problematyki roboetyki. W innych dziedzinach życia pojawiać się będą inne zagadnienia: jak na przykład problem zdrady. Oprócz problemów praktycznych, które wyłaniają się w wyniku interakcji ludzi z robotami, czy robotami pomiędzy sobą, pojawiają się również problemy teoretyczne. Do tego typu problemów zaliczyć można pytanie, na chwilę obecną spekulacyjne, czy dalszy rozwój robotyki doprowadzi do powstania robotów, których uznamy za podmioty moralne? Wielość zagadnień, jakimi zajmuje się i może zajmować roboetyka pokazuje, że na postawione w tytule pytanie odpowiedzieć należy twierdząco – tak, roboetyka jest już nam dziś potrzebna.

Social sharing
Trackback URL for this blog entry.

Comments

  • Guest
    Marcin Łukasz Makowski Thursday, 08 July 2010

    Roboetyka?

    Jeśli etyka rości sobie prawo do uniwersalności a systemy etyczne stronią od partykularnego uzasadniania racji postępowania, to tworzenie subkategorii odnoszącej si do robotów jest co najmniej wątpliwe. Rozterki etyczne z którymi stykamy się w przypadku tworzenia i interakcji z robotami nie są niczym jakościowo nowym. Tak długo jak długo robot nie posiada świadomości (hard AI) i nie jest odpowiedzialny za swoje czyny, tak długo staje się on wyrafinowanym narzędziem w rękach człowieka / programisty / konstruktora. Znaczy to, że pytanie etyczne powinno być skierowane ku temu, jak człowiek radzi sobie z własnymi wytworami, a to nie jest pytanie nowe i nie wymaga budowania nowego działu etyki.

  • Krzysztof Saja
    Krzysztof Saja Thursday, 08 July 2010

    Konkretny problem roboetyki?

    Ciekawa notka. Szkoda że autor nie podał jednak jakiegoś konkretnego, opisanego szczegółowo, realnego problemu z robotem, który to problem wymagałby pewnego specyficznego podejścia charakterystycznego właśnie dla roboetyki. Może w następnej notce?

  • Dawid Lubiszewski
    Dawid Lubiszewski Saturday, 10 July 2010

    Odpowiedź na komentarz 1#

    Poruszony przez Pana problem dotyczy zagadnienia, które obecnie jest czysto teoretycznym - mianowicie to, czy świadomość i odpowiedzialność jest warunkiem koniecznym, by uznać coś bądź kogoś za podmiot moralny. Wydaje mi się, że tego typu rozważania nie były podejmowane przez etyków na taką skalę, jak inne czołowe zagadnienia, gdyż w centrum prawie zawsze był człowiek i nie było potrzeby argumentacji dlaczego tylko człowiek jest podmiotem moralnym... Tak więc w swoim komentarzu daje Pan odpowiedź na pytanie, kiedy według Pana będziemy mogli uznać robota za podmiot moralny i są to dwa warunki: posiadanie świadomości i bycie odpowiedzialnym za swoje działanie. Ponieważ nie ma jednej definicji ani świadomości ani aktu/stanu bycia odpowiedzialnym, to nie będę z Panem polemizował w tej kwestii, tym bardziej, że jak zaznaczam, to czy ten problem zostanie postawiony już nie hipotetycznie, zależy od rozwoju technologicznego, jak i naszej wiedzy (np. na temat świadomości).Zupełnie inną sprawą, z którą się nie zgadzam, jest stwierdzenie, że roboty to wyrafinowane narzędzia, a z tego dalej ma wynikać, że problemy się pojawiające na styku człowiek-robot nie są czymś nowym. Podobnie jak w przypadku definicji świadomości, możemy się kłócić, co jest bardziej wyrafinowanym narzędziem... Sęk w tym, że istnieje zasadnicza różnica, przynajmniej moim zdaniem, jeśli chodzi o działanie robota autonomicznego (wykluczam w tym momencie roboty zdalnie sterowane), a innego narzędzia. Tak więc jadąc nowym samochodem, z różnymi gadżetami, możemy powiedzieć, że jest to wyrafinowana zabawka, narzędzie służące do przemieszczania. Jednak nie ma tu wątpliwości, za które błędy w jego działaniu, bądź jakimś wypadku będzie odpowiedzialny producent, ewentualnie sprzedawca, czy kierowca. To, dokąd pojedzie samochód, bądź to gdzie będzie stał, zależy przede wszystkim od kierowcy. Z robotami autonomicznymi już tak nie jest. Jest konstruktor i użytkownik, ale obaj nie odpowiadają za każdy ruch robota, bo on zależy np. od otoczenia, w jakim on funkcjonuje. Konstruktor stworzył takiego robota, który ma możliwość skrętu w lewo, a użytkownik umieścił go w pewnym środowisku, w którym ma wykonywać pewne funkcje. Zachowanie robota będzie jednak nieprzewidywalne w tym sensie, że pozostawiając robota samemu sobie, ani użytkownik ani konstruktor, nie znając interakcji, w jakie wchodzi robot z otoczeniem, nie jest w stanie przewidzieć, gdzie znajdzie się robot po jakimś czasie, bądź co będzie robił. Dokładniej na konkretnym przykładzie opiszę to w innej notce. Tak więc w takiej sytuacji użytkownik "zrzuca" z siebie odpowiedzialność za kierowanie robotem... tylko na kogo? Jeśli nawet zadania wykonuje on prawidłowo to nie znaczy, że nie może znaleźć się w jakiejś sytuacji, gdzie następuje konflikt wartości, który nieświadomie robot swoim działaniem rozwiązuje... stąd m.in. konieczność nowego spojrzenia na sytuacje. Z samochodami, widelcami, telefonami, krzesłami i wszystkimi innymi narzędziami raczej takich problemów nie było. Bez zgody użytkownika widelec nie wyjdzie z szuflady, bo mu za ciasno - no chyba że w jakiejś reklamie :)

  • Urszula Zarosa
    Urszula Zarosa Sunday, 18 July 2010

    Całkiem ciekawe rozważania!

    Gdy przeczytałam wstęp i tytuł sam pomysł wydał mi się dość dziwny, rzeczywiście troszkę niczym z powieści s-f. Niestety chyba pozostanę nieprzekonana co do kwestii jaką jest potrzeba tworzenia nowej dziedziny etyki stosowanej, aczkolwiek abstrakcyjne rozważania w tych kwestiach uważam za niezwykle ciekawe. Argument, iż roboty coraz bardziej będą przypominać człowieka, czy zwierzęta, są dla mnie (póki co) mało trafne. Brak qualiów u robotów zawsze będzie tym, co stanowić będzie krok milowy rozdzielający je od ludzi, zatem zdaje się, że tym czego potrzebujemy byłaby jedynie etyka postępowania z robotami, tak jak mamy np. przepisy dotyczące używania broni. Przykład z robotem na polu walki jest podobny do przypadku, w którym mamy żołnierzy wykonujących rozkazy, albo decydujących samodzielnie o pociągnięciu za spust. Nie widzę też problemu z odpowiedzialnością – jeśli nawet robot w jakimś stopniu sam będzie podejmował decyzje, zawsze będą one zależne od jego zaprogramowania, chyba, że mówimy już o tak daleko idącej abstrakcji, jak roboty samouczące się itd. czyli na dzień dzisiejszy pure s-f. Ciekawszym zagadnieniem wydaje się zagadnienie raczej z zakresu psychologii niż etyki, czyli kwestia wychowywania dzieci wraz z robotami imitującymi istoty żywe, które jest już dziś w jakimś sensie aktualne.Jedynym ciekawym zagadnieniem wydaje mi się spekulacja, czy gdyby udało nam się stworzyć samouczącego się robota, zachowującego się dokładnie tak jak człowiek, reagującego tak jak on, to czy moglibyśmy mu odmówić podmiotowości? Jedyną barierą właściwie byłyby tu qualia, co ciekawe jednak, Ci którzy za kryterium podmiotowości uznają racjonalność (np. św. Tomasza, współcześnie Ślipko) musieliby chyba uznać roboty za podmioty moralne i kogoś kto ma duszę?:) No ale tym samym zastosować do nich tę samą etykę jaką stosuje się wobec ludzi (roboetyka nie byłaby im potrzebna ;) )W swojej opinii zgadzam się zatem z tym co napisał Marcin Makowski i dr Saja. Ponieważ sama zajmuję się tematem moralnej podmiotowości zwierząt, sympatyzuję jednakże troszkę z tematem, ponieważ wiem, jak dla niektórych abstrakcyjnym wydaje się traktowanie zwierząt (nawet szympansów) jako podmiotów moralnych, czy też pomijając kontrowersyjne słowo podmiot, jako istot, których interesy należy brać pod uwagę. Jeśli przeniesiemy się jednakże na bardzo abstrakcyjne pole dyskusji, muszę przyznać rację autorowi tekstu. Jeśli zachowania robota, nie byłyby tylko jednym z np. mlnów zaprogramowanych mu kombinacji działania, ale czymś istotnie nowym i autonomicznym, problem odpowiedzialności pojawiłby się, a skoro odpowiedzialności to i podmiotowości, co będzie wymagało całkiem solidnej analizy. Czekam na kolejne notki autora w tym ciekawym temacie.

  • Marcin Łukasz Makowski
    Marcin Łukasz Makowski Saturday, 24 July 2010

    @ komentarz numer 3

    Owszem, poruszone przeze mnie zagadnienie jest czysto teoretyczne, ale mimo braku jasnych definicji pojęć takich jak świadomość i odpowiedzialność - nadal będę przy nich obstawać. Proszę zwrócić uwagę na zasadniczą zbieżność tych dwóch kwestii w wypadku prawnej kwalifikacji czynu popełnionego przez daną osobę. W każdym razie ze świadomością nie jest aż tak źle jak mogłoby się wydawać. Obecnie jest to jedna z szybciej rozwijających się subdyscyplin w filozofii (Chalmers, Block, Baars, Haikonen, etc.) a nawet element samodzielnej nauki - kognitywistyki. Problematyka świadomości maszyn doczekała się już nie tylko własnego biuletynu (International Journal of Machine Consciousness), ale i licznych publikacji których nie ma tu sensu przytaczać. Podobnie z problematyką odpowiedzialności, która na polskim podwórku zajmuje np. Jacek Filek. Do czego zmierzam? W chwili obecnej jesteśmy na dobrej drodze do zakreślenia bardzo precyzyjnych ram w obrębie stopniowalności zjawisk świadomych, dlatego nie warto porzucać tego tematu ot tak.Nie sądzę, aby autonomiczne maszyny coś w tej kwestii zmieniały. Także tutaj musimy się opierać na nieprecyzyjnej definicji, ale jeśli autonomia znaczy to co znaczyła w Grecji - czyli możliwość stanowienia o samym sobie - roboty, które Pan opisał jej nie posiadają. Istnieje zasadnicza różnica między implementacją algorytmu umożliwiającego wybór kierunku poruszania się, a faktycznym wyborem tego kierunku. "Autonimiczny" robot porusza się zgodnie z ramami zakreślonymi przez programistę i nie ponosi odpowiedzialności za spowodowanie wypadku samochodowego - gdyby np wjechał przypadkiem na autostradę. Co rozumiem przez ramy zakreślone przez programistę? Tak jak Pan słusznie zauważył, nie przewidzimy gdzie taki robot znajdzie się po jakimś czasie, ale jesteśmy w stanie przewidzieć całą paletę kroków która wykona aby się tam znaleźć. Podobnie z algorytmami losowymi - generują nieprzewidywalne wyniki, ale losowości nie nazywamy autonomią.

  • Dawid Lubiszewski
    Dawid Lubiszewski Monday, 26 July 2010

    Kolejne odpowiedzi...

    Odpowiadając na część uwag. ad4. Roboetyka jako dział etyki stosowanej? Uważam, że można śmiało powiedzieć, że taki dział już istnieje. Odbywają się roboetyczne konferencje, a pojawiający się na nich badacze piszą swoje przemyślenia w naukowych czasopismach. Czy to wystarczy by można było mówić o nowym dziale? Chyba tak. Jednak ponieważ wielu osobom, z przyczyn chyba oczywistych, tematyka ta kojarzy się z fantastyką i futurologią, to roboetyka jako poważna dziedziny badawcza jest postrzegana przez znacznie mniejszą liczbę osób niż postrzega się na przykład etykę biznesu. Ponadto specyfika tejże dziedziny - wielu badaczy wywodzi się z robotyki a nie filozofii - powoduje że ich przemyślenia pojawiają się w mniej interesujących dla filozofów czasopismach. Osoby zajmujące się roboetyką to m.in.: Gianmarco Veruggio - twórca terminu i pierwszej konferencji na temat roboetyki, Ronald Craig Arkin, Robert Sparrow, Terrell Ward Bynum, Peter Asaro, Michael Anderson. Nie są to raczej znane postacie w świecie współczesnej etyki - dlatego nie dziwi mnie dość ostrożne przyjęcie moich przemyśleń. Tu chciałbym jednocześnie zaznaczyć, że część z tych osób, jak np. Ronald Arkin, pracują na różnymi robotami i problemy o których piszą nie są abstrakcyjnymi rozważaniami, a realnymi wyzwaniami. Oczywiście problem zaimplementowania systemu etycznego do robota wojskowego zapewne, dla wielu, wydaje się mniej atrakcyjnym niż problem aborcji czy eutanazji. Tak, etyka postępowania z robotami jest jednym z elementów czy składników roboetyki. Czy pewne zagadnienia są bardziej psychologiczne niż etyczne? Tutaj skłaniałbym się do rozwiązań interdyscyplinarnych czy multidyscyplinarnych, gdyż problemy w tej dziedzinie z reguły dotyczą przynajmniej dwóch nauk. Dlatego rzeczywiście kwestia wychowywania dzieci może być bardziej psychologicznym problemem niż etycznym, a wybór systemu etycznego dla robota problemem etycznym niż informatycznym, choć może być też na odwrót - to mimo wszystko w każdym z nich będzie pewna dawka problemów etycznych.Roboetyka jest czymś na podobę etyki biznesu, a nie Etyki przez duże E. Mam tu namyśli uwagę na temat stosowania tej samej etyki co stosuje się wobec ludzi. Istnienie Etyki przez duże E nie wyklucza takich dziedzin jak etyka biznesu, seksualna, mediów stąd też uważam, że istnienie roboetyki jest niezależne od tego, czy stworzymy sztucznego człowieka czy nie. Co więcej może się okazać, że gdy ów sztuczny człowiek powstanie nie będzie on już przedmiotem zainteresowań roboetyki.ad5.Problem świadomości jest istotny, ale współcześnie roboetyka stoi przed bardziej realnymi zagrożeniami (jak wspomniane roboty wojskowe) - dlatego chwilo zawiesiłem rozważania nad tym na ile świadomość jest ważna dla podmiotowości moralnej - i zgadzam się z tym, że jest bardzo ważna. Jednak nie chcę na razie dyskutować na ten temat, gdyż sprawia on wrażenie iż roboetyka to jakieś dywagacje na temat czegoś czego jeszcze nie ma - czyli robotów ze świadomością - co może być przyczyną niepoważnego traktowania tej dyscypliny.Dokładniej na pozostałe uwagi i komentarze odpowiem w osobnym artykule.

  • Please login first in order for you to submit comments
Blog Naukowy Etyk Praktycznej

Active Groups

No active groups.