Roboetyka - czy jest ju? dzi? potrzebna?

Roboetyka - wymys? futurologów czy kolejny z dzia?ów etyki stosowanej powsta?y na skutek rozwoju technologicznego? Czy rzeczywi?cie istnieje potrzeba zajmowania si? problemami pojawiaj?cymi si? w wyniku interakcji robotów z lud?mi i innymi istotami ?ywymi i sztucznymi? Czy zajmowanie si? tymi problemami oznacza automatycznie powstanie cz??ciowo autonomicznej dziedziny etycznych rozwa?a?? Innymi s?owy czy roboetyka jest nam ju? dzi? potrzebna?

 

Przegl?daj?c program telewizyjny, czy te? wybieraj?c si? do kina, cz?sto napotykamy na filmy, w których cz?owiek wspó?pracuje b?d? walczy z robotami. Na ekranie ogl?damy nie tylko wizje przysz?o?ci, ale równie? adaptacje powie?ci i legend powsta?ych kilkaset lat temu. Fascynacja sztucznymi istotami si?ga bowiem znacznie wcze?niej ni? powie?ci Asimova czy filmy o Terminatorze. Niezale?nie jednak od epoki powstania, w dzie?ach tych spotyka si? ró?ne konflikty moralne i zagadnienia, które s? podobne do problemów rozwi?zywanych przez etyków.

Wydawa?  by si? mog?o, ?e je?li etycy prawi? co? o robotach, to s? to jedynie spekulacje dotycz?ce wydarze? z bli?ej nieokre?lonej przysz?o?ci, które mog? nigdy nie nast?pi?. Nic jednak bardziej mylnego. Wraz z rozwojem technologicznym ro?nie ?wiadomo?? problemów etycznych, na które nara?eni s? producenci, konstruktorzy, u?ytkownicy i same… roboty, czego dowodem jest nowo powsta?y dzia? etyki stosowanej – roboetyka. Zarówno sama dyscyplina, jak i jej nazwa, ma bardzo krótk? histori? – ich powstanie datuje si? na rok 2004.

Czym dok?adnie zajmuje si? ten rodzaj etyki? W centrum jej zainteresowa? znajduj? si?:

  • systemy etyczne wbudowywane do robotów;
  • systemy etyczne stosowane przez roboty;
  • systemy etyczne stosowane przez in?ynierów podczas konstrukcji robotów;
  • systemy etyczne stosowane przez u?ytkowników robotów;
  • systemy etyczne stosowane przez producentów robotów;
  • sposoby, w jaki ludzie traktuj? roboty.

Czy roboetyka jest rzeczywi?cie ju? dzi? potrzebna? Czy nie wystarczy stosowa? rozwi?za? z innych dyscyplin etycznych do zaistnia?ych problemów czy konfliktów? Okazuje si?, ?e nie. Przede wszystkim zaznaczy? nale?y, ?e interakcje cz?owieka z robotem ró?ni? si? od interakcji, w jakie wchodzi on ze zwyk?ymi przedmiotami. Co wi?cej, pod wieloma wzgl?dami wspó?dzia?anie z robotem bardziej przypomina wspó?dzia?anie z innym cz?owiekiem. Ponadto roboty s? zdolne do wykonywania coraz trudniejszych zada? i w tym sensie bardziej ni? przedmioty martwe przypominaj? ?ywe zwierz?ta. Dodatkowo coraz powszechniejsze stosowanie robotów do ró?nych dzia?a? stawia pytania, z którymi nie spotyka?y si? inne dziedziny etyki stosowanej. Przyk?adem takiego typu problemów jest stosowanie robotów na polu walki czy wp?yw robotów zabawek na rozwój osobowy dziecka.

W ramach pierwszego zagadnienia dyskusyjne jest stosowanie robotów autonomicznych, które mog? samodzielnie podejmowa? decyzje na polu walki, to jest pierwszej linii ognia. Tego typu roboty s? zdolne do zabicia cz?owieka. Oczywi?cie mi?dzynarodowe prawo zabrania stosowania takich robotów, jednak istniej? powa?ne obawy, ?e kraje, w których nie przestrzega si? tych zakazów, b?d? je ?ama?. Zaznaczy? nale?y, ?e problem ten znacznie ró?ni si? od sytuacji, w której to cz?owiek pos?uguje si? broni? (bia?? b?d? paln?), gdy? w tym pierwszym przypadku to nie od cz?owieka zale?y, czy robot “wystrzeli”. Z zagadnieniem tym zwi?zane jest inne, a mianowicie problem odpowiedzialno?ci. Kto w takim przypadku odpowiada za zachowanie robota? To i podobne pytania b?d? pojawia? si? coraz cz??ciej, gdy? s?u?ba wojskowa robotów staje si? coraz bardziej powszechna (w 2007 roku w Iraku s?u?y?o 5000 ró?nego rodzajów robotów w armii USA).

Drugie wspomniane zagadnienia dotyczy wp?ywu robotów na rozwój osobowy dziecka. Czy zabawa, b?d? innego typu interakcja, od wczesnych lat ?ycia z robotami, które swoich zachowaniem imituj? organizmy ?ywe, jest bezpieczna? Czy cz?owiek wychowuj?cy si? w takim otoczeniu b?dzie umia? odró?ni? istoty sztuczne od ?ywych? Cho? sytuacje te mog? wyda? si? bardzo nieprawdopodobne, to w krajach wysokorozwini?tych, gdzie dost?p do robotów jest u?atwiony, mog? si? one rzeczywi?cie pojawi?. Przyk?adem niech b?d? badania przeprowadzone przez Petera Khana i Batya Friedmana, którzy przeprowadzili ankiet? w?ród nieletnich u?ytkowników robotów przypominaj?cych psa. Po?ród badanych znalaz?a si? niewielka grupa dzieci (12%) uwa?aj?ca, ?e posiadane przez nich roboty powinny by? szanowane i posiada? prawa (takie jak zwierz?ta czy ludzie). Przypadek ten pokazuje, ?e dzieci te mog? w ró?nych sytuacjach w hierarchii warto?ci wy?ej postawi? „zdrowie” robota ni? drugiego cz?owieka.

Wymienione dwa przyk?ady nie zamykaj? problematyki roboetyki. W innych dziedzinach ?ycia pojawia? si? b?d? inne zagadnienia: jak na przyk?ad problem zdrady. Oprócz problemów praktycznych, które wy?aniaj? si? w wyniku interakcji ludzi z robotami, czy robotami pomi?dzy sob?, pojawiaj? si? równie? problemy teoretyczne. Do tego typu problemów zaliczy? mo?na pytanie, na chwil? obecn? spekulacyjne, czy dalszy rozwój robotyki doprowadzi do powstania robotów, których uznamy za podmioty moralne? Wielo?? zagadnie?, jakimi zajmuje si? i mo?e zajmowa? roboetyka pokazuje, ?e na postawione w tytule pytanie odpowiedzie? nale?y twierdz?co – tak, roboetyka jest ju? nam dzi? potrzebna.

Social sharing
Trackback URL for this blog entry.

Comments

  • Guest
    Marcin ?ukasz Makowski Thursday, 08 July 2010

    Roboetyka?

    Je?li etyka ro?ci sobie prawo do uniwersalno?ci a systemy etyczne stroni? od partykularnego uzasadniania racji post?powania, to tworzenie subkategorii odnosz?cej si do robotów jest co najmniej w?tpliwe. Rozterki etyczne z którymi stykamy si? w przypadku tworzenia i interakcji z robotami nie s? niczym jako?ciowo nowym. Tak d?ugo jak d?ugo robot nie posiada ?wiadomo?ci (hard AI) i nie jest odpowiedzialny za swoje czyny, tak d?ugo staje si? on wyrafinowanym narz?dziem w r?kach cz?owieka / programisty / konstruktora. Znaczy to, ?e pytanie etyczne powinno by? skierowane ku temu, jak cz?owiek radzi sobie z w?asnymi wytworami, a to nie jest pytanie nowe i nie wymaga budowania nowego dzia?u etyki.

  • Krzysztof Saja
    Krzysztof Saja Thursday, 08 July 2010

    Konkretny problem roboetyki?

    Ciekawa notka. Szkoda ?e autor nie poda? jednak jakiego? konkretnego, opisanego szczegó?owo, realnego problemu z robotem, który to problem wymaga?by pewnego specyficznego podej?cia charakterystycznego w?a?nie dla roboetyki. Mo?e w nast?pnej notce?

  • Dawid Lubiszewski
    Dawid Lubiszewski Saturday, 10 July 2010

    Odpowied? na komentarz 1#

    Poruszony przez Pana problem dotyczy zagadnienia, które obecnie jest czysto teoretycznym - mianowicie to, czy ?wiadomo?? i odpowiedzialno?? jest warunkiem koniecznym, by uzna? co? b?d? kogo? za podmiot moralny. Wydaje mi si?, ?e tego typu rozwa?ania nie by?y podejmowane przez etyków na tak? skal?, jak inne czo?owe zagadnienia, gdy? w centrum prawie zawsze by? cz?owiek i nie by?o potrzeby argumentacji dlaczego tylko cz?owiek jest podmiotem moralnym... Tak wi?c w swoim komentarzu daje Pan odpowied? na pytanie, kiedy wed?ug Pana b?dziemy mogli uzna? robota za podmiot moralny i s? to dwa warunki: posiadanie ?wiadomo?ci i bycie odpowiedzialnym za swoje dzia?anie. Poniewa? nie ma jednej definicji ani ?wiadomo?ci ani aktu/stanu bycia odpowiedzialnym, to nie b?d? z Panem polemizowa? w tej kwestii, tym bardziej, ?e jak zaznaczam, to czy ten problem zostanie postawiony ju? nie hipotetycznie, zale?y od rozwoju technologicznego, jak i naszej wiedzy (np. na temat ?wiadomo?ci).Zupe?nie inn? spraw?, z któr? si? nie zgadzam, jest stwierdzenie, ?e roboty to wyrafinowane narz?dzia, a z tego dalej ma wynika?, ?e problemy si? pojawiaj?ce na styku cz?owiek-robot nie s? czym? nowym. Podobnie jak w przypadku definicji ?wiadomo?ci, mo?emy si? k?óci?, co jest bardziej wyrafinowanym narz?dziem... S?k w tym, ?e istnieje zasadnicza ró?nica, przynajmniej moim zdaniem, je?li chodzi o dzia?anie robota autonomicznego (wykluczam w tym momencie roboty zdalnie sterowane), a innego narz?dzia. Tak wi?c jad?c nowym samochodem, z ró?nymi gad?etami, mo?emy powiedzie?, ?e jest to wyrafinowana zabawka, narz?dzie s?u??ce do przemieszczania. Jednak nie ma tu w?tpliwo?ci, za które b??dy w jego dzia?aniu, b?d? jakim? wypadku b?dzie odpowiedzialny producent, ewentualnie sprzedawca, czy kierowca. To, dok?d pojedzie samochód, b?d? to gdzie b?dzie sta?, zale?y przede wszystkim od kierowcy. Z robotami autonomicznymi ju? tak nie jest. Jest konstruktor i u?ytkownik, ale obaj nie odpowiadaj? za ka?dy ruch robota, bo on zale?y np. od otoczenia, w jakim on funkcjonuje. Konstruktor stworzy? takiego robota, który ma mo?liwo?? skr?tu w lewo, a u?ytkownik umie?ci? go w pewnym ?rodowisku, w którym ma wykonywa? pewne funkcje. Zachowanie robota b?dzie jednak nieprzewidywalne w tym sensie, ?e pozostawiaj?c robota samemu sobie, ani u?ytkownik ani konstruktor, nie znaj?c interakcji, w jakie wchodzi robot z otoczeniem, nie jest w stanie przewidzie?, gdzie znajdzie si? robot po jakim? czasie, b?d? co b?dzie robi?. Dok?adniej na konkretnym przyk?adzie opisz? to w innej notce. Tak wi?c w takiej sytuacji u?ytkownik "zrzuca" z siebie odpowiedzialno?? za kierowanie robotem... tylko na kogo? Je?li nawet zadania wykonuje on prawid?owo to nie znaczy, ?e nie mo?e znale?? si? w jakiej? sytuacji, gdzie nast?puje konflikt warto?ci, który nie?wiadomie robot swoim dzia?aniem rozwi?zuje... st?d m.in. konieczno?? nowego spojrzenia na sytuacje. Z samochodami, widelcami, telefonami, krzes?ami i wszystkimi innymi narz?dziami raczej takich problemów nie by?o. Bez zgody u?ytkownika widelec nie wyjdzie z szuflady, bo mu za ciasno - no chyba ?e w jakiej? reklamie :)

  • Urszula Zarosa
    Urszula Zarosa Sunday, 18 July 2010

    Ca?kiem ciekawe rozwa?ania!

    Gdy przeczyta?am wst?p i tytu? sam pomys? wyda? mi si? do?? dziwny, rzeczywi?cie troszk? niczym z powie?ci s-f. Niestety chyba pozostan? nieprzekonana co do kwestii jak? jest potrzeba tworzenia nowej dziedziny etyki stosowanej, aczkolwiek abstrakcyjne rozwa?ania w tych kwestiach uwa?am za niezwykle ciekawe. Argument, i? roboty coraz bardziej b?d? przypomina? cz?owieka, czy zwierz?ta, s? dla mnie (póki co) ma?o trafne. Brak qualiów u robotów zawsze b?dzie tym, co stanowi? b?dzie krok milowy rozdzielaj?cy je od ludzi, zatem zdaje si?, ?e tym czego potrzebujemy by?aby jedynie etyka post?powania z robotami, tak jak mamy np. przepisy dotycz?ce u?ywania broni. Przyk?ad z robotem na polu walki jest podobny do przypadku, w którym mamy ?o?nierzy wykonuj?cych rozkazy, albo decyduj?cych samodzielnie o poci?gni?ciu za spust. Nie widz? te? problemu z odpowiedzialno?ci? – je?li nawet robot w jakim? stopniu sam b?dzie podejmowa? decyzje, zawsze b?d? one zale?ne od jego zaprogramowania, chyba, ?e mówimy ju? o tak daleko id?cej abstrakcji, jak roboty samoucz?ce si? itd. czyli na dzie? dzisiejszy pure s-f. Ciekawszym zagadnieniem wydaje si? zagadnienie raczej z zakresu psychologii ni? etyki, czyli kwestia wychowywania dzieci wraz z robotami imituj?cymi istoty ?ywe, które jest ju? dzi? w jakim? sensie aktualne.Jedynym ciekawym zagadnieniem wydaje mi si? spekulacja, czy gdyby uda?o nam si? stworzy? samoucz?cego si? robota, zachowuj?cego si? dok?adnie tak jak cz?owiek, reaguj?cego tak jak on, to czy mogliby?my mu odmówi? podmiotowo?ci? Jedyn? barier? w?a?ciwie by?yby tu qualia, co ciekawe jednak, Ci którzy za kryterium podmiotowo?ci uznaj? racjonalno?? (np. ?w. Tomasza, wspó?cze?nie ?lipko) musieliby chyba uzna? roboty za podmioty moralne i kogo? kto ma dusz??:) No ale tym samym zastosowa? do nich t? sam? etyk? jak? stosuje si? wobec ludzi (roboetyka nie by?aby im potrzebna ;) )W swojej opinii zgadzam si? zatem z tym co napisa? Marcin Makowski i dr Saja. Poniewa? sama zajmuj? si? tematem moralnej podmiotowo?ci zwierz?t, sympatyzuj? jednak?e troszk? z tematem, poniewa? wiem, jak dla niektórych abstrakcyjnym wydaje si? traktowanie zwierz?t (nawet szympansów) jako podmiotów moralnych, czy te? pomijaj?c kontrowersyjne s?owo podmiot, jako istot, których interesy nale?y bra? pod uwag?. Je?li przeniesiemy si? jednak?e na bardzo abstrakcyjne pole dyskusji, musz? przyzna? racj? autorowi tekstu. Je?li zachowania robota, nie by?yby tylko jednym z np. mlnów zaprogramowanych mu kombinacji dzia?ania, ale czym? istotnie nowym i autonomicznym, problem odpowiedzialno?ci pojawi?by si?, a skoro odpowiedzialno?ci to i podmiotowo?ci, co b?dzie wymaga?o ca?kiem solidnej analizy. Czekam na kolejne notki autora w tym ciekawym temacie.

  • Marcin ?ukasz Makowski
    Marcin ?ukasz Makowski Saturday, 24 July 2010

    @ komentarz numer 3

    Owszem, poruszone przeze mnie zagadnienie jest czysto teoretyczne, ale mimo braku jasnych definicji poj?? takich jak ?wiadomo?? i odpowiedzialno?? - nadal b?d? przy nich obstawa?. Prosz? zwróci? uwag? na zasadnicz? zbie?no?? tych dwóch kwestii w wypadku prawnej kwalifikacji czynu pope?nionego przez dan? osob?. W ka?dym razie ze ?wiadomo?ci? nie jest a? tak ?le jak mog?oby si? wydawa?. Obecnie jest to jedna z szybciej rozwijaj?cych si? subdyscyplin w filozofii (Chalmers, Block, Baars, Haikonen, etc.) a nawet element samodzielnej nauki - kognitywistyki. Problematyka ?wiadomo?ci maszyn doczeka?a si? ju? nie tylko w?asnego biuletynu (International Journal of Machine Consciousness), ale i licznych publikacji których nie ma tu sensu przytacza?. Podobnie z problematyk? odpowiedzialno?ci, która na polskim podwórku zajmuje np. Jacek Filek. Do czego zmierzam? W chwili obecnej jeste?my na dobrej drodze do zakre?lenia bardzo precyzyjnych ram w obr?bie stopniowalno?ci zjawisk ?wiadomych, dlatego nie warto porzuca? tego tematu ot tak.Nie s?dz?, aby autonomiczne maszyny co? w tej kwestii zmienia?y. Tak?e tutaj musimy si? opiera? na nieprecyzyjnej definicji, ale je?li autonomia znaczy to co znaczy?a w Grecji - czyli mo?liwo?? stanowienia o samym sobie - roboty, które Pan opisa? jej nie posiadaj?. Istnieje zasadnicza ró?nica mi?dzy implementacj? algorytmu umo?liwiaj?cego wybór kierunku poruszania si?, a faktycznym wyborem tego kierunku. "Autonimiczny" robot porusza si? zgodnie z ramami zakre?lonymi przez programist? i nie ponosi odpowiedzialno?ci za spowodowanie wypadku samochodowego - gdyby np wjecha? przypadkiem na autostrad?. Co rozumiem przez ramy zakre?lone przez programist?? Tak jak Pan s?usznie zauwa?y?, nie przewidzimy gdzie taki robot znajdzie si? po jakim? czasie, ale jeste?my w stanie przewidzie? ca?? palet? kroków która wykona aby si? tam znale??. Podobnie z algorytmami losowymi - generuj? nieprzewidywalne wyniki, ale losowo?ci nie nazywamy autonomi?.

  • Dawid Lubiszewski
    Dawid Lubiszewski Monday, 26 July 2010

    Kolejne odpowiedzi...

    Odpowiadaj?c na cz??? uwag. ad4. Roboetyka jako dzia? etyki stosowanej? Uwa?am, ?e mo?na ?mia?o powiedzie?, ?e taki dzia? ju? istnieje. Odbywaj? si? roboetyczne konferencje, a pojawiaj?cy si? na nich badacze pisz? swoje przemy?lenia w naukowych czasopismach. Czy to wystarczy by mo?na by?o mówi? o nowym dziale? Chyba tak. Jednak poniewa? wielu osobom, z przyczyn chyba oczywistych, tematyka ta kojarzy si? z fantastyk? i futurologi?, to roboetyka jako powa?na dziedziny badawcza jest postrzegana przez znacznie mniejsz? liczb? osób ni? postrzega si? na przyk?ad etyk? biznesu. Ponadto specyfika tej?e dziedziny - wielu badaczy wywodzi si? z robotyki a nie filozofii - powoduje ?e ich przemy?lenia pojawiaj? si? w mniej interesuj?cych dla filozofów czasopismach. Osoby zajmuj?ce si? roboetyk? to m.in.: Gianmarco Veruggio - twórca terminu i pierwszej konferencji na temat roboetyki, Ronald Craig Arkin, Robert Sparrow, Terrell Ward Bynum, Peter Asaro, Michael Anderson. Nie s? to raczej znane postacie w ?wiecie wspó?czesnej etyki - dlatego nie dziwi mnie do?? ostro?ne przyj?cie moich przemy?le?. Tu chcia?bym jednocze?nie zaznaczy?, ?e cz??? z tych osób, jak np. Ronald Arkin, pracuj? na ró?nymi robotami i problemy o których pisz? nie s? abstrakcyjnymi rozwa?aniami, a realnymi wyzwaniami. Oczywi?cie problem zaimplementowania systemu etycznego do robota wojskowego zapewne, dla wielu, wydaje si? mniej atrakcyjnym ni? problem aborcji czy eutanazji. Tak, etyka post?powania z robotami jest jednym z elementów czy sk?adników roboetyki. Czy pewne zagadnienia s? bardziej psychologiczne ni? etyczne? Tutaj sk?ania?bym si? do rozwi?za? interdyscyplinarnych czy multidyscyplinarnych, gdy? problemy w tej dziedzinie z regu?y dotycz? przynajmniej dwóch nauk. Dlatego rzeczywi?cie kwestia wychowywania dzieci mo?e by? bardziej psychologicznym problemem ni? etycznym, a wybór systemu etycznego dla robota problemem etycznym ni? informatycznym, cho? mo?e by? te? na odwrót - to mimo wszystko w ka?dym z nich b?dzie pewna dawka problemów etycznych.Roboetyka jest czym? na podob? etyki biznesu, a nie Etyki przez du?e E. Mam tu namy?li uwag? na temat stosowania tej samej etyki co stosuje si? wobec ludzi. Istnienie Etyki przez du?e E nie wyklucza takich dziedzin jak etyka biznesu, seksualna, mediów st?d te? uwa?am, ?e istnienie roboetyki jest niezale?ne od tego, czy stworzymy sztucznego cz?owieka czy nie. Co wi?cej mo?e si? okaza?, ?e gdy ów sztuczny cz?owiek powstanie nie b?dzie on ju? przedmiotem zainteresowa? roboetyki.ad5.Problem ?wiadomo?ci jest istotny, ale wspó?cze?nie roboetyka stoi przed bardziej realnymi zagro?eniami (jak wspomniane roboty wojskowe) - dlatego chwilo zawiesi?em rozwa?ania nad tym na ile ?wiadomo?? jest wa?na dla podmiotowo?ci moralnej - i zgadzam si? z tym, ?e jest bardzo wa?na. Jednak nie chc? na razie dyskutowa? na ten temat, gdy? sprawia on wra?enie i? roboetyka to jakie? dywagacje na temat czego? czego jeszcze nie ma - czyli robotów ze ?wiadomo?ci? - co mo?e by? przyczyn? niepowa?nego traktowania tej dyscypliny.Dok?adniej na pozosta?e uwagi i komentarze odpowiem w osobnym artykule.

  • Please login first in order for you to submit comments
Blog Naukowy Etyk Praktycznej

Active Groups

No active groups.