Czy zawód psychoterapeuty zostanie wkrótce przejęty przez roboty?

W warszawskiej Szkole Wyższej Psychologii Społecznej na kierunku „psychologia i informatyka” można zrobić specjalność ze sztucznej inteligencji. Do uczestnictwa w niej zachęca dr Michał Boni, pisząc: „psycholog korzystający z systemów sztucznej inteligencji czy narzędzi algorytmicznych będzie w swojej pracy osiągał to, co jeszcze niedawno było nie do wyobrażenia”.
robot - zdjęcie poglądowe Czy zawód psychoterapeuty zostanie wkrótce przejęty przez roboty?
robot - zdjęcie poglądowe / fot. pixabay.com

I rzeczywiście, możliwości sztucznej inteligencji wydają się nieograniczone. Czy zawód psychoterapeuty stanie się kolejnym rynkiem pracy powoli przejmowanym przez roboty?

„Rozumiem / opowiedz mi więcej”

Anna Jarosz-Bilińska na portalu psychologiawpraktyce.pl przypomina początki wykorzystywania sztucznej inteligencji w psychoterapii. „Chatboty są często używane na stronach internetowych jako interaktywne, wirtualne postacie zastępujące żywych konsultantów, odpowiadające na pytania z zakresu usług i działalności danej firmy. Ich historia sięga lat 60. XX wieku. To właśnie wtedy Joseph Weizenbaum z Massachusetts Institute of Technology (MIT) opracował Elizę, znaną także jako «the Doctor». Jest to pierwszy program symulujący rozmowę terapeutyczną człowieka z maszyną. Chatbot, choć prosty w swojej konstrukcji, był zdolny przeprowadzić nieskomplikowany dialog z pacjentem. Iluzję prawdziwej rozmowy można było uzyskać za pomocą przestawiania fraz i słów kluczowych, które następnie były używane w wypowiedziach Elizy. Podczas rozmowy często pojawiają się uniwersalne zwroty, takie jak: «rozumiem» lub «opowiedz mi więcej o X», co pozwalało utrzymywać iluzję rozmowy z terapeutą i tym samym zwodzić przez dłuższy czas osoby badane”.

Jarosz-Bilińska przytacza transkrypcję jednej z konwersacji pacjenta z robotem terapeutą:
„Eliza: Powiedz mi, co Cię martwi? Pacjent: Wszystko. Eliza: Powiedz mi więcej o tym. Pacjent: Ostatnio wszystko mi przeszkadza. Eliza: Mówienie o tym Ci przeszkadza? Pacjent: Co dziwne, nie. Eliza: Dlaczego nie? Pacjent: Po prostu, nie. Eliza: Nie jestem pewna, czy rozumiem Cię w pełni. Pacjent: Rozmawianie o tym mi nie przeszkadza. Eliza: Jesteś zdecydowany, żeby o tym porozmawiać? Pacjent: Nie wiem, a powinienem? Eliza: Naprawdę nie wiesz? Pacjent: Naprawdę nie wiem. Eliza: Dlaczego? Pacjent: Pomożesz mi czy nie? Eliza: Dlaczego jesteś zainteresowany tym, czy jestem tu po to, żeby Ci pomóc?”.

Jak wskazuje autorka opracowania, mimo iż pacjenci wiedzieli, że nawiązują dialog z robotem, a nie z realnym człowiekiem, i tak traktowali te sesje poważnie i przywiązywali się do nich. „Jedna z anegdot dotyczy sekretarki samego Weizenbauma. Pewnego dnia kobieta poprosiła go o opuszczenie pokoju, aby mogła odbyć rozmowę z Elizą. Twórca programu był tym zaskoczony, pisząc później: «Nie zdawałem sobie sprawy, że bardzo krótkie ekspozycje na stosunkowo prosty program komputerowy mogą wywołać silne myślenie urojeniowe u całkiem normalnych ludzi»” – pisze Jarosz-Bilińska.

„Dziś Eliza ma skuteczniejszych i niezwykle wiarygodnych następców, takich jak Tess firmy X2AI. Można z nią porozmawiać poprzez SMS-y, komunikator Facebook Messenger i kilka innych platform. Nie wymaga dodatkowych aplikacji – z punktu widzenia użytkownika jest numerem telefonu komórkowego” – wskazuje na portalu Focus.pl psycholog dr Tomasz Witkowski. Za sprawą sztucznej inteligencji Tess pacjenci mogą korzystać z terapii i psychoedukacji. I chwalą to sobie. „Byłam wstrząśnięta tym, jak naturalnie czułam się podczas tej rozmowy. W ciągu kilku minut zapomniałam, że moim rozmówcą w rzeczywistości jest komputer” – opowiada cytowana przez dr. Witkowskiego Alison Berman z Singularity University. Autor artykułu podkreśla, że aplikacje cyfrowe oparte na metodach stosowanych w terapii poznawczo-behawioralnej w Wielkiej Brytanii są już standardem w zaleceniach psychoterapeutycznych dotyczących pracy z lękiem i depresją. „Także i w Polsce trwają prace nad podobnymi rozwiązaniami – zaangażowane są w to Uniwersytet SWPS i firma Norbsoft” – pisze Witkowski. I dodaje: „Nadal w procesie leczenia bierze udział psycholog potrzebny np. do postawienia diagnozy. Jednak wkrótce i to może się zmienić”.

Zamykamy za wygląd?

Dalsza część artykułu wskazuje już na mocno kontrowersyjne zagadnienia. Nie sposób uniknąć tu skojarzeń ze słynnymi teoriami włoskiego psychiatry i kryminologa Cesarego Lombrosa, który skłonności przestępczych upatrywał w określonych cechach fizycznych, takich jak np. mocno wysunięta dolna szczęka, nadmierne owłosienie, ciemny odcień skóry, nieprawidłowości w kształcie czaszki, zez, cofnięte czoło, duże uszy, mięsiste usta czy… leworęczność. Czy pomysły „zamykania za wygląd” mają szansę powrócić w XXI wieku? „Xiaolin Wu i Xi Zhang z Shanghai Jiao Tong University stworzyli sieć neuronową – program, który uczy się na podstawie dostarczonych mu danych. Po «nakarmieniu» go zdjęciami różnych obywateli Chin uzyskali algorytm rozpoznający przestępców z dokładnością bliską 90 proc. Okazało się, że znaczenie ma tylko kilka cech. Naukowcy nadal nie wiedzą, dlaczego akurat taka budowa twarzy ma związek ze skłonnościami przestępczymi, ani czy fenomen nie dotyczy wyłącznie osób pochodzenia azjatyckiego. Jedno jest już jednak pewne – w tym względzie sztuczna inteligencja może co najmniej dorównać ludzkiej intuicji” – pisze dr Witkowski.
W tym miejscu nie sposób się nie zatrzymać i nie zastanowić nad tym, jak niebezpiecznym narzędziem może okazać się pozbawiona ludzkiej kontroli sztuczna inteligencja. Czy trudno bowiem wyobrazić sobie sytuację, w której algorytm rozpoznaje na podstawie wyglądu potencjalnego przestępcę i następnie dąży do jego wyeliminowania ze społeczeństwa, aby ochronić w ten sposób resztę ludzi? Dajmy na to, że z początku będzie to „jedynie” wykluczenie cyfrowe lub np. niemożność skorzystania ze środków zbiorowego transportu. Brzmi jak science fiction? Niestety niekoniecznie.

„Hodujemy sobie gatunek, który stanie się – efektywniejszy od nas – naszym naturalnym wrogiem. Będzie dysponował tym, co zawsze było naszym atutem – intelektem. Jesteśmy słabi fizycznie, wolni, nie radzimy sobie w środowisku, padlibyśmy, gdyby nie to, że mamy lepszy mózg. Jeśli wyhodujemy sobie konkurencję, będzie po nas” – wskazuje w programie „Didaskalia” profesor fizyki Andrzej Dragan. „Narzędzie zostało stworzone w taki sposób, by nam służyć. Człowiek zawsze mógł decydować, jaki zrobi użytek z wynalazku. Tymczasem nóż nie zdecyduje, że nam zaszkodzi, a to urządzenie może to zrobić. To dość niepokojące. Nie rozumiemy, jak to wszystko działa, bo wymyśliliśmy tylko sposób pisania algorytmów uczenia maszynowego. Teraz nie wiemy, co może się wydarzyć. Nie mamy pojęcia, czy będziemy umieli kontrolować ten proces. Nie potrafię sobie wyobrazić takiego wariantu, żeby to się dla nas źle nie skończyło” – ostrzega naukowiec.

Na niebezpieczeństwa nieograniczonego stosowania sztucznej inteligencji wskazuje także psycholog María Alejandra Castro Arbeláez. „Kiedy instalujemy program na naszym komputerze lub aplikację na telefonie komórkowym, zgadzamy się na warunki, które rzadko czytamy. Uważamy, że jeśli większość je akceptuje, my też możemy je przyjąć. Tym sposobem wielokrotnie udzielamy przywilejów, z których nie do końca zdajemy sobie sprawę. Z drugiej strony, każdy psycholog w swoim zawodzie rządzi się kodeksem etycznym. Zdaje sobie sprawę, że istnieją zasady i jeśli je naruszy, będzie musiał odpowiedzieć przed właściwym organem. Mówimy o poziomie świadomości, do którego z trudnością może dotrzeć maszyna” – pisze psycholog na portalu pieknoumyslu.com. „Sztuczna inteligencja i psychologia pozostają w relacji, która być może kryje dwa wielkie niebezpieczeństwa. Pierwsze to dzielenie się zbyt wrażliwymi danymi z maszyną zaprogramowaną w języku, którego użytkownik nie zna. A drugie to brak świadomości pewnych standardów – kodu deontologicznego – które powinny regulować określone usługi, korzyści lub działania czy zajęcia” – dodaje Arbeláez.

Zespół stresu elektronicznego

Kolejnym niebezpieczeństwem związanym ze sztuczną inteligencją jest sama kwestia konsekwencji nadmiernego stosowania urządzeń elektronicznych skutkującego nie tylko uzależnieniami, problemami ze skupieniem uwagi, przebodźcowaniem, ale nawet zmianami w mózgu. Dotyczy to szczególnie dzieci i młodzieży. „Szkoła jest miejscem zdobywania wiedzy i rozwijania talentów, dlatego powinna zapewniać uczniom warunki do należytego skupienia uwagi. Nie jest to możliwe, gdy silne bodźce generowane przez smartfony lub smartwatche odciągają uwagę uczniów od przedmiotu zajęć. Pogłębia to trudności związane z przyswajaniem wiedzy i nabywanych umiejętności. Ponadto, nie można bagatelizować szkodliwego wpływu technologii na zdrowie fizyczne i psychiczne dzieci i młodzieży. Badania wskazują na coraz więcej jednostek chorobowych, spowodowanych nadmiernym korzystaniem z urządzeń elektronicznych. Problem zbyt dużej obecności ekranów w życiu dzieci prowadzi m.in. do: zaburzeń koncentracji uwagi, nadpobudliwości ruchowej i rozdrażnienia, stanów lękowych i depresyjnych, obniżenia zdolności interpersonalnych i zmniejszenia umiejętności językowych, popadania w nałogi, na czele z uzależnieniem od pornografii, mediów społecznościowych i gier. Badania pokazują, że w Polsce zjawisko problematycznego użytkowania internetu dotyczy już co trzeciego nastolatka, a trzech na stu wymaga specjalistycznej pomocy. 28 proc. deklaruje, że z powodu nadużywania internetu miało zawroty głowy bądź pogorszył im się wzrok. 35 proc. przyznaje, że z tego samego powodu odczuwa przemęczenie i niedostatek snu. Aż 40 proc. nastolatek podpisało się pod twierdzeniem, że «Moje życie byłoby puste bez mojego telefonu/smartfona»” – piszą w liście otwartym do ministra edukacji i nauki Przemysława Czarnka organizatorzy akcji „Szkoła bez smartfonów” zorganizowanej przez Centrum Życia i Rodziny. „Dlatego tak ważne jest podjęcie wszelkich możliwych działań, aby ryzyko szkodliwego wpływu użytkowania tych urządzeń na zdrowie dzieci i młodzieży zredukować do minimum. Przykład innych państw pokazuje, że wprowadzenie takich rozwiązań jest możliwe i przynosi pożądane rezultaty. Wystarczy wspomnieć Francję, Australię, Włochy i kanadyjską prowincję Ontario” – dodają.

„Dziecko, które wiele godzin przesiaduje przed ekranem, może trwale uszkodzić sobie mózg” – ostrzega w rozmowie z Polskim Radiem psycholog Bogna Białecka. Postuluje ona stopniową zmianę kultury cyfrowej w Polsce. „Chodzi o to, aby normą było nieposiadanie smartfona przez dziecko i aby jego brak nie powodował wykluczenia z grupy” – tłumaczy, dodając, że dziecko nie musi być uzależnione, aby pojawiły się u niego problemy rozwojowe. „Naukowcy mówią m.in. o zespole stresu elektronicznego, który wiążą ze zwiększoną liczbą diagnoz ADHD i innych zaburzeń rozwojowych. Oglądanie krótkich filmików powoduje m.in. problemy ze skupieniem uwagi” – podkreśla Białecka.

Nie należy, rzecz jasna, wylewać dziecka z kąpielą i w związku z zagrożeniami cyfrowymi palić komputerów i przechodzić na drewniane liczydła. O ile sztuczna inteligencja z pewnością może znaleźć zastosowanie w analizie danych w kryminologii (choćby do porównywania śladów DNA znalezionych na miejscu zbrodni z tymi zgromadzonymi w policyjnych bazach danych), to jednak jej wykorzystywanie w procesie terapeutycznym wymaga już głębszego zastanowienia, także nad kwestią tego, jakie czynniki decydują o powodzeniu terapii. Tym, co leczy, jest przecież nie tylko możliwość wyrzucenia z siebie nagromadzonych emocji, nazwania ich i „przepracowania” w toku stopniowej zmiany destrukcyjnych przekonań, ale przede wszystkim – nawiązanie opartej na zaufaniu więzi terapeutycznej. Robot może wypełnić tę funkcję jedynie w pewnym ograniczonym stopniu. Jego „przewagą” nad terapeutą-człowiekiem może być fakt stałej dostępności sztucznej inteligencji, która – w przeciwieństwie do realnego terapeuty – nie będzie miała gorszego dnia, nie popełni błędu ani nie zachoruje. Czy jednak tego rodzaju terapia przybliży pacjenta do lepszego kontaktowania się z – niedoskonałymi przecież – realnymi ludźmi, w tym niedoskonałym samym sobą? Czy pacjent nie uzależni się od tego – niemal doskonałego przecież – terapeuty? Czy się w nim nie zakocha? I wreszcie – last but not least – co, jeśli w którymś momencie wyłączy mu się prąd?

Tekst pochodzi z 20 (1790) numeru „Tygodnika Solidarność”.


 

POLECANE
To ten człowiek stworzył z „polskiego programisty” symbol narodowy gorące
To ten człowiek stworzył z „polskiego programisty” symbol narodowy

To ten człowiek swoją misją edukacyjną stworzył z „polskiego programisty” symbol narodowy! To dzięki niemu i jego uczniom obok USA i Chin nasz kraj stał się liderem międzynarodowych olimpiad informatycznych.

Musimy to zrobić szybko. Zełenski wskazał warunek zakończenia wojny z ostatniej chwili
"Musimy to zrobić szybko". Zełenski wskazał warunek zakończenia wojny

Wołodymyr Zełenski sugeruje, że w zamian za członkostwo Kijowa w NATO jest gotowy na porozumienie z Rosją, nawet jeśli Moskwa nie odda od razu zajętych ukraińskich terenów - podała w piątek Sky News. Stacja podkreśliła, że jest to pierwszy wywiad, w którym ukraiński prezydent mówił o czasowej rezygnacji z ziem kontrolowanych obecnie przez Rosję.

Roszady na czele ukraińskiej armii. Jest nowy dowódca Wiadomości
Roszady na czele ukraińskiej armii. Jest nowy dowódca

Nowym dowódcą wojsk lądowych Ukrainy został generał Mychajło Drapaty, zaś zastępcą naczelnego dowódcy Sił Zbrojnych Ukrainy płk Ołeh Apostoł – poinformował w piątek prezydent Ukrainy Wołodymyr Zełenski w mediach społecznościowych po posiedzeniu naczelnego dowództwa.

Pilne doniesienia z Pałacu Buckingham. Ważna decyzja króla Karola III z ostatniej chwili
Pilne doniesienia z Pałacu Buckingham. Ważna decyzja króla Karola III

Król Karol III podjął ważną decyzję dotyczącą swojego stylu życia. Monarcha postanowił wyeliminować czerwone mięso ze swojej diety. Jak ujawnił Tom Parker Bowles, syn królowej Kamili, zmiana ta może mieć związek z jego troską o zdrowie. 

Putin się nie zatrzyma. Alarmujące słowa brytyjskiego polityka z ostatniej chwili
"Putin się nie zatrzyma". Alarmujące słowa brytyjskiego polityka

Jeśli przywódca Rosji Władimir Putin zwasalizuje Ukrainę, to nie zatrzyma się na niej, a wówczas bezpieczeństwo Wielkiej Brytanii, Francji, Europy, bezpieczeństwo transatlantyckie byłoby zagrożone - ostrzegł w piątek w Paryżu szef brytyjskiego wywiadu MI6 Richard Moore.

Pilny komunikat GIS. Produkt wycofano ze sprzedaży z ostatniej chwili
Pilny komunikat GIS. Produkt wycofano ze sprzedaży

GIS wydał nowe ostrzeżenie dla konsumentów. Na ten produkt należy uważać.

Nie żyje polski medalista mistrzostw Europy z ostatniej chwili
Nie żyje polski medalista mistrzostw Europy

Media obiegła informacja o śmierci Czesława Kura. Wybitny zawodnik, dwukrotny brązowy medalista mistrzostw Europy, odszedł w wieku 81 lat, zaledwie kilka dni po swoich urodzinach. Smutną wiadomość przekazał Polski Związek Judo, wspominając go jako „wielką ikonę”.

Problemy Polski 2050. Wiceminister odchodzi z resortu z ostatniej chwili
Problemy Polski 2050. Wiceminister odchodzi z resortu

Wiceminister aktywów Jacek Bartmiński z Polski 2050 poinformował w piątek na platformie X, że odchodzi z resortu. W oświadczeniu, opublikowanym przez Polskę 2050 Bartmiński napisał, że jego odwołanie jest dokonaną przez premiera oceną nadzorowania jednej ze spółek - PLL LOT.

Nie wiedziałem. Putin przeprasza Merkel za sytuację sprzed lat z ostatniej chwili
"Nie wiedziałem". Putin przeprasza Merkel za sytuację sprzed lat

Władimir Putin odniósł się do wspomnienia Angeli Merkel z 2007 roku, kiedy to podczas spotkania w Soczi przyprowadził swojego labradora, mimo że ówczesna kanclerz Niemiec bała się psów. Rosyjski prezydent zaprzeczył, jakoby jego intencją było przestraszenie Merkel. „Nie wiedziałem o jej strachu przed psami. Gdybym wiedział, nigdy bym tego nie zrobił” - zapewnił podczas konferencji prasowej.

Patostreamer Crawly zatrzymany przez policję w Warszawie z ostatniej chwili
Patostreamer Crawly zatrzymany przez policję w Warszawie

Warszawscy policjanci i Straż Graniczna zatrzymali patostreamera „Crawly” - podał rzecznik prasowy MSWiA Jacek Dobrzyński. Dodał też, że zostanie on wydalony z kraju. Crawly, choć deklaruje chęć życia w Rosji, jest z pochodzenia Ukraińcem.

REKLAMA

Czy zawód psychoterapeuty zostanie wkrótce przejęty przez roboty?

W warszawskiej Szkole Wyższej Psychologii Społecznej na kierunku „psychologia i informatyka” można zrobić specjalność ze sztucznej inteligencji. Do uczestnictwa w niej zachęca dr Michał Boni, pisząc: „psycholog korzystający z systemów sztucznej inteligencji czy narzędzi algorytmicznych będzie w swojej pracy osiągał to, co jeszcze niedawno było nie do wyobrażenia”.
robot - zdjęcie poglądowe Czy zawód psychoterapeuty zostanie wkrótce przejęty przez roboty?
robot - zdjęcie poglądowe / fot. pixabay.com

I rzeczywiście, możliwości sztucznej inteligencji wydają się nieograniczone. Czy zawód psychoterapeuty stanie się kolejnym rynkiem pracy powoli przejmowanym przez roboty?

„Rozumiem / opowiedz mi więcej”

Anna Jarosz-Bilińska na portalu psychologiawpraktyce.pl przypomina początki wykorzystywania sztucznej inteligencji w psychoterapii. „Chatboty są często używane na stronach internetowych jako interaktywne, wirtualne postacie zastępujące żywych konsultantów, odpowiadające na pytania z zakresu usług i działalności danej firmy. Ich historia sięga lat 60. XX wieku. To właśnie wtedy Joseph Weizenbaum z Massachusetts Institute of Technology (MIT) opracował Elizę, znaną także jako «the Doctor». Jest to pierwszy program symulujący rozmowę terapeutyczną człowieka z maszyną. Chatbot, choć prosty w swojej konstrukcji, był zdolny przeprowadzić nieskomplikowany dialog z pacjentem. Iluzję prawdziwej rozmowy można było uzyskać za pomocą przestawiania fraz i słów kluczowych, które następnie były używane w wypowiedziach Elizy. Podczas rozmowy często pojawiają się uniwersalne zwroty, takie jak: «rozumiem» lub «opowiedz mi więcej o X», co pozwalało utrzymywać iluzję rozmowy z terapeutą i tym samym zwodzić przez dłuższy czas osoby badane”.

Jarosz-Bilińska przytacza transkrypcję jednej z konwersacji pacjenta z robotem terapeutą:
„Eliza: Powiedz mi, co Cię martwi? Pacjent: Wszystko. Eliza: Powiedz mi więcej o tym. Pacjent: Ostatnio wszystko mi przeszkadza. Eliza: Mówienie o tym Ci przeszkadza? Pacjent: Co dziwne, nie. Eliza: Dlaczego nie? Pacjent: Po prostu, nie. Eliza: Nie jestem pewna, czy rozumiem Cię w pełni. Pacjent: Rozmawianie o tym mi nie przeszkadza. Eliza: Jesteś zdecydowany, żeby o tym porozmawiać? Pacjent: Nie wiem, a powinienem? Eliza: Naprawdę nie wiesz? Pacjent: Naprawdę nie wiem. Eliza: Dlaczego? Pacjent: Pomożesz mi czy nie? Eliza: Dlaczego jesteś zainteresowany tym, czy jestem tu po to, żeby Ci pomóc?”.

Jak wskazuje autorka opracowania, mimo iż pacjenci wiedzieli, że nawiązują dialog z robotem, a nie z realnym człowiekiem, i tak traktowali te sesje poważnie i przywiązywali się do nich. „Jedna z anegdot dotyczy sekretarki samego Weizenbauma. Pewnego dnia kobieta poprosiła go o opuszczenie pokoju, aby mogła odbyć rozmowę z Elizą. Twórca programu był tym zaskoczony, pisząc później: «Nie zdawałem sobie sprawy, że bardzo krótkie ekspozycje na stosunkowo prosty program komputerowy mogą wywołać silne myślenie urojeniowe u całkiem normalnych ludzi»” – pisze Jarosz-Bilińska.

„Dziś Eliza ma skuteczniejszych i niezwykle wiarygodnych następców, takich jak Tess firmy X2AI. Można z nią porozmawiać poprzez SMS-y, komunikator Facebook Messenger i kilka innych platform. Nie wymaga dodatkowych aplikacji – z punktu widzenia użytkownika jest numerem telefonu komórkowego” – wskazuje na portalu Focus.pl psycholog dr Tomasz Witkowski. Za sprawą sztucznej inteligencji Tess pacjenci mogą korzystać z terapii i psychoedukacji. I chwalą to sobie. „Byłam wstrząśnięta tym, jak naturalnie czułam się podczas tej rozmowy. W ciągu kilku minut zapomniałam, że moim rozmówcą w rzeczywistości jest komputer” – opowiada cytowana przez dr. Witkowskiego Alison Berman z Singularity University. Autor artykułu podkreśla, że aplikacje cyfrowe oparte na metodach stosowanych w terapii poznawczo-behawioralnej w Wielkiej Brytanii są już standardem w zaleceniach psychoterapeutycznych dotyczących pracy z lękiem i depresją. „Także i w Polsce trwają prace nad podobnymi rozwiązaniami – zaangażowane są w to Uniwersytet SWPS i firma Norbsoft” – pisze Witkowski. I dodaje: „Nadal w procesie leczenia bierze udział psycholog potrzebny np. do postawienia diagnozy. Jednak wkrótce i to może się zmienić”.

Zamykamy za wygląd?

Dalsza część artykułu wskazuje już na mocno kontrowersyjne zagadnienia. Nie sposób uniknąć tu skojarzeń ze słynnymi teoriami włoskiego psychiatry i kryminologa Cesarego Lombrosa, który skłonności przestępczych upatrywał w określonych cechach fizycznych, takich jak np. mocno wysunięta dolna szczęka, nadmierne owłosienie, ciemny odcień skóry, nieprawidłowości w kształcie czaszki, zez, cofnięte czoło, duże uszy, mięsiste usta czy… leworęczność. Czy pomysły „zamykania za wygląd” mają szansę powrócić w XXI wieku? „Xiaolin Wu i Xi Zhang z Shanghai Jiao Tong University stworzyli sieć neuronową – program, który uczy się na podstawie dostarczonych mu danych. Po «nakarmieniu» go zdjęciami różnych obywateli Chin uzyskali algorytm rozpoznający przestępców z dokładnością bliską 90 proc. Okazało się, że znaczenie ma tylko kilka cech. Naukowcy nadal nie wiedzą, dlaczego akurat taka budowa twarzy ma związek ze skłonnościami przestępczymi, ani czy fenomen nie dotyczy wyłącznie osób pochodzenia azjatyckiego. Jedno jest już jednak pewne – w tym względzie sztuczna inteligencja może co najmniej dorównać ludzkiej intuicji” – pisze dr Witkowski.
W tym miejscu nie sposób się nie zatrzymać i nie zastanowić nad tym, jak niebezpiecznym narzędziem może okazać się pozbawiona ludzkiej kontroli sztuczna inteligencja. Czy trudno bowiem wyobrazić sobie sytuację, w której algorytm rozpoznaje na podstawie wyglądu potencjalnego przestępcę i następnie dąży do jego wyeliminowania ze społeczeństwa, aby ochronić w ten sposób resztę ludzi? Dajmy na to, że z początku będzie to „jedynie” wykluczenie cyfrowe lub np. niemożność skorzystania ze środków zbiorowego transportu. Brzmi jak science fiction? Niestety niekoniecznie.

„Hodujemy sobie gatunek, który stanie się – efektywniejszy od nas – naszym naturalnym wrogiem. Będzie dysponował tym, co zawsze było naszym atutem – intelektem. Jesteśmy słabi fizycznie, wolni, nie radzimy sobie w środowisku, padlibyśmy, gdyby nie to, że mamy lepszy mózg. Jeśli wyhodujemy sobie konkurencję, będzie po nas” – wskazuje w programie „Didaskalia” profesor fizyki Andrzej Dragan. „Narzędzie zostało stworzone w taki sposób, by nam służyć. Człowiek zawsze mógł decydować, jaki zrobi użytek z wynalazku. Tymczasem nóż nie zdecyduje, że nam zaszkodzi, a to urządzenie może to zrobić. To dość niepokojące. Nie rozumiemy, jak to wszystko działa, bo wymyśliliśmy tylko sposób pisania algorytmów uczenia maszynowego. Teraz nie wiemy, co może się wydarzyć. Nie mamy pojęcia, czy będziemy umieli kontrolować ten proces. Nie potrafię sobie wyobrazić takiego wariantu, żeby to się dla nas źle nie skończyło” – ostrzega naukowiec.

Na niebezpieczeństwa nieograniczonego stosowania sztucznej inteligencji wskazuje także psycholog María Alejandra Castro Arbeláez. „Kiedy instalujemy program na naszym komputerze lub aplikację na telefonie komórkowym, zgadzamy się na warunki, które rzadko czytamy. Uważamy, że jeśli większość je akceptuje, my też możemy je przyjąć. Tym sposobem wielokrotnie udzielamy przywilejów, z których nie do końca zdajemy sobie sprawę. Z drugiej strony, każdy psycholog w swoim zawodzie rządzi się kodeksem etycznym. Zdaje sobie sprawę, że istnieją zasady i jeśli je naruszy, będzie musiał odpowiedzieć przed właściwym organem. Mówimy o poziomie świadomości, do którego z trudnością może dotrzeć maszyna” – pisze psycholog na portalu pieknoumyslu.com. „Sztuczna inteligencja i psychologia pozostają w relacji, która być może kryje dwa wielkie niebezpieczeństwa. Pierwsze to dzielenie się zbyt wrażliwymi danymi z maszyną zaprogramowaną w języku, którego użytkownik nie zna. A drugie to brak świadomości pewnych standardów – kodu deontologicznego – które powinny regulować określone usługi, korzyści lub działania czy zajęcia” – dodaje Arbeláez.

Zespół stresu elektronicznego

Kolejnym niebezpieczeństwem związanym ze sztuczną inteligencją jest sama kwestia konsekwencji nadmiernego stosowania urządzeń elektronicznych skutkującego nie tylko uzależnieniami, problemami ze skupieniem uwagi, przebodźcowaniem, ale nawet zmianami w mózgu. Dotyczy to szczególnie dzieci i młodzieży. „Szkoła jest miejscem zdobywania wiedzy i rozwijania talentów, dlatego powinna zapewniać uczniom warunki do należytego skupienia uwagi. Nie jest to możliwe, gdy silne bodźce generowane przez smartfony lub smartwatche odciągają uwagę uczniów od przedmiotu zajęć. Pogłębia to trudności związane z przyswajaniem wiedzy i nabywanych umiejętności. Ponadto, nie można bagatelizować szkodliwego wpływu technologii na zdrowie fizyczne i psychiczne dzieci i młodzieży. Badania wskazują na coraz więcej jednostek chorobowych, spowodowanych nadmiernym korzystaniem z urządzeń elektronicznych. Problem zbyt dużej obecności ekranów w życiu dzieci prowadzi m.in. do: zaburzeń koncentracji uwagi, nadpobudliwości ruchowej i rozdrażnienia, stanów lękowych i depresyjnych, obniżenia zdolności interpersonalnych i zmniejszenia umiejętności językowych, popadania w nałogi, na czele z uzależnieniem od pornografii, mediów społecznościowych i gier. Badania pokazują, że w Polsce zjawisko problematycznego użytkowania internetu dotyczy już co trzeciego nastolatka, a trzech na stu wymaga specjalistycznej pomocy. 28 proc. deklaruje, że z powodu nadużywania internetu miało zawroty głowy bądź pogorszył im się wzrok. 35 proc. przyznaje, że z tego samego powodu odczuwa przemęczenie i niedostatek snu. Aż 40 proc. nastolatek podpisało się pod twierdzeniem, że «Moje życie byłoby puste bez mojego telefonu/smartfona»” – piszą w liście otwartym do ministra edukacji i nauki Przemysława Czarnka organizatorzy akcji „Szkoła bez smartfonów” zorganizowanej przez Centrum Życia i Rodziny. „Dlatego tak ważne jest podjęcie wszelkich możliwych działań, aby ryzyko szkodliwego wpływu użytkowania tych urządzeń na zdrowie dzieci i młodzieży zredukować do minimum. Przykład innych państw pokazuje, że wprowadzenie takich rozwiązań jest możliwe i przynosi pożądane rezultaty. Wystarczy wspomnieć Francję, Australię, Włochy i kanadyjską prowincję Ontario” – dodają.

„Dziecko, które wiele godzin przesiaduje przed ekranem, może trwale uszkodzić sobie mózg” – ostrzega w rozmowie z Polskim Radiem psycholog Bogna Białecka. Postuluje ona stopniową zmianę kultury cyfrowej w Polsce. „Chodzi o to, aby normą było nieposiadanie smartfona przez dziecko i aby jego brak nie powodował wykluczenia z grupy” – tłumaczy, dodając, że dziecko nie musi być uzależnione, aby pojawiły się u niego problemy rozwojowe. „Naukowcy mówią m.in. o zespole stresu elektronicznego, który wiążą ze zwiększoną liczbą diagnoz ADHD i innych zaburzeń rozwojowych. Oglądanie krótkich filmików powoduje m.in. problemy ze skupieniem uwagi” – podkreśla Białecka.

Nie należy, rzecz jasna, wylewać dziecka z kąpielą i w związku z zagrożeniami cyfrowymi palić komputerów i przechodzić na drewniane liczydła. O ile sztuczna inteligencja z pewnością może znaleźć zastosowanie w analizie danych w kryminologii (choćby do porównywania śladów DNA znalezionych na miejscu zbrodni z tymi zgromadzonymi w policyjnych bazach danych), to jednak jej wykorzystywanie w procesie terapeutycznym wymaga już głębszego zastanowienia, także nad kwestią tego, jakie czynniki decydują o powodzeniu terapii. Tym, co leczy, jest przecież nie tylko możliwość wyrzucenia z siebie nagromadzonych emocji, nazwania ich i „przepracowania” w toku stopniowej zmiany destrukcyjnych przekonań, ale przede wszystkim – nawiązanie opartej na zaufaniu więzi terapeutycznej. Robot może wypełnić tę funkcję jedynie w pewnym ograniczonym stopniu. Jego „przewagą” nad terapeutą-człowiekiem może być fakt stałej dostępności sztucznej inteligencji, która – w przeciwieństwie do realnego terapeuty – nie będzie miała gorszego dnia, nie popełni błędu ani nie zachoruje. Czy jednak tego rodzaju terapia przybliży pacjenta do lepszego kontaktowania się z – niedoskonałymi przecież – realnymi ludźmi, w tym niedoskonałym samym sobą? Czy pacjent nie uzależni się od tego – niemal doskonałego przecież – terapeuty? Czy się w nim nie zakocha? I wreszcie – last but not least – co, jeśli w którymś momencie wyłączy mu się prąd?

Tekst pochodzi z 20 (1790) numeru „Tygodnika Solidarność”.



 

Polecane
Emerytury
Stażowe