Czy zawód psychoterapeuty zostanie wkrótce przejęty przez roboty?

W warszawskiej Szkole Wyższej Psychologii Społecznej na kierunku „psychologia i informatyka” można zrobić specjalność ze sztucznej inteligencji. Do uczestnictwa w niej zachęca dr Michał Boni, pisząc: „psycholog korzystający z systemów sztucznej inteligencji czy narzędzi algorytmicznych będzie w swojej pracy osiągał to, co jeszcze niedawno było nie do wyobrażenia”.
robot - zdjęcie poglądowe Czy zawód psychoterapeuty zostanie wkrótce przejęty przez roboty?
robot - zdjęcie poglądowe / fot. pixabay.com

I rzeczywiście, możliwości sztucznej inteligencji wydają się nieograniczone. Czy zawód psychoterapeuty stanie się kolejnym rynkiem pracy powoli przejmowanym przez roboty?

„Rozumiem / opowiedz mi więcej”

Anna Jarosz-Bilińska na portalu psychologiawpraktyce.pl przypomina początki wykorzystywania sztucznej inteligencji w psychoterapii. „Chatboty są często używane na stronach internetowych jako interaktywne, wirtualne postacie zastępujące żywych konsultantów, odpowiadające na pytania z zakresu usług i działalności danej firmy. Ich historia sięga lat 60. XX wieku. To właśnie wtedy Joseph Weizenbaum z Massachusetts Institute of Technology (MIT) opracował Elizę, znaną także jako «the Doctor». Jest to pierwszy program symulujący rozmowę terapeutyczną człowieka z maszyną. Chatbot, choć prosty w swojej konstrukcji, był zdolny przeprowadzić nieskomplikowany dialog z pacjentem. Iluzję prawdziwej rozmowy można było uzyskać za pomocą przestawiania fraz i słów kluczowych, które następnie były używane w wypowiedziach Elizy. Podczas rozmowy często pojawiają się uniwersalne zwroty, takie jak: «rozumiem» lub «opowiedz mi więcej o X», co pozwalało utrzymywać iluzję rozmowy z terapeutą i tym samym zwodzić przez dłuższy czas osoby badane”.

Jarosz-Bilińska przytacza transkrypcję jednej z konwersacji pacjenta z robotem terapeutą:
„Eliza: Powiedz mi, co Cię martwi? Pacjent: Wszystko. Eliza: Powiedz mi więcej o tym. Pacjent: Ostatnio wszystko mi przeszkadza. Eliza: Mówienie o tym Ci przeszkadza? Pacjent: Co dziwne, nie. Eliza: Dlaczego nie? Pacjent: Po prostu, nie. Eliza: Nie jestem pewna, czy rozumiem Cię w pełni. Pacjent: Rozmawianie o tym mi nie przeszkadza. Eliza: Jesteś zdecydowany, żeby o tym porozmawiać? Pacjent: Nie wiem, a powinienem? Eliza: Naprawdę nie wiesz? Pacjent: Naprawdę nie wiem. Eliza: Dlaczego? Pacjent: Pomożesz mi czy nie? Eliza: Dlaczego jesteś zainteresowany tym, czy jestem tu po to, żeby Ci pomóc?”.

Jak wskazuje autorka opracowania, mimo iż pacjenci wiedzieli, że nawiązują dialog z robotem, a nie z realnym człowiekiem, i tak traktowali te sesje poważnie i przywiązywali się do nich. „Jedna z anegdot dotyczy sekretarki samego Weizenbauma. Pewnego dnia kobieta poprosiła go o opuszczenie pokoju, aby mogła odbyć rozmowę z Elizą. Twórca programu był tym zaskoczony, pisząc później: «Nie zdawałem sobie sprawy, że bardzo krótkie ekspozycje na stosunkowo prosty program komputerowy mogą wywołać silne myślenie urojeniowe u całkiem normalnych ludzi»” – pisze Jarosz-Bilińska.

„Dziś Eliza ma skuteczniejszych i niezwykle wiarygodnych następców, takich jak Tess firmy X2AI. Można z nią porozmawiać poprzez SMS-y, komunikator Facebook Messenger i kilka innych platform. Nie wymaga dodatkowych aplikacji – z punktu widzenia użytkownika jest numerem telefonu komórkowego” – wskazuje na portalu Focus.pl psycholog dr Tomasz Witkowski. Za sprawą sztucznej inteligencji Tess pacjenci mogą korzystać z terapii i psychoedukacji. I chwalą to sobie. „Byłam wstrząśnięta tym, jak naturalnie czułam się podczas tej rozmowy. W ciągu kilku minut zapomniałam, że moim rozmówcą w rzeczywistości jest komputer” – opowiada cytowana przez dr. Witkowskiego Alison Berman z Singularity University. Autor artykułu podkreśla, że aplikacje cyfrowe oparte na metodach stosowanych w terapii poznawczo-behawioralnej w Wielkiej Brytanii są już standardem w zaleceniach psychoterapeutycznych dotyczących pracy z lękiem i depresją. „Także i w Polsce trwają prace nad podobnymi rozwiązaniami – zaangażowane są w to Uniwersytet SWPS i firma Norbsoft” – pisze Witkowski. I dodaje: „Nadal w procesie leczenia bierze udział psycholog potrzebny np. do postawienia diagnozy. Jednak wkrótce i to może się zmienić”.

Zamykamy za wygląd?

Dalsza część artykułu wskazuje już na mocno kontrowersyjne zagadnienia. Nie sposób uniknąć tu skojarzeń ze słynnymi teoriami włoskiego psychiatry i kryminologa Cesarego Lombrosa, który skłonności przestępczych upatrywał w określonych cechach fizycznych, takich jak np. mocno wysunięta dolna szczęka, nadmierne owłosienie, ciemny odcień skóry, nieprawidłowości w kształcie czaszki, zez, cofnięte czoło, duże uszy, mięsiste usta czy… leworęczność. Czy pomysły „zamykania za wygląd” mają szansę powrócić w XXI wieku? „Xiaolin Wu i Xi Zhang z Shanghai Jiao Tong University stworzyli sieć neuronową – program, który uczy się na podstawie dostarczonych mu danych. Po «nakarmieniu» go zdjęciami różnych obywateli Chin uzyskali algorytm rozpoznający przestępców z dokładnością bliską 90 proc. Okazało się, że znaczenie ma tylko kilka cech. Naukowcy nadal nie wiedzą, dlaczego akurat taka budowa twarzy ma związek ze skłonnościami przestępczymi, ani czy fenomen nie dotyczy wyłącznie osób pochodzenia azjatyckiego. Jedno jest już jednak pewne – w tym względzie sztuczna inteligencja może co najmniej dorównać ludzkiej intuicji” – pisze dr Witkowski.
W tym miejscu nie sposób się nie zatrzymać i nie zastanowić nad tym, jak niebezpiecznym narzędziem może okazać się pozbawiona ludzkiej kontroli sztuczna inteligencja. Czy trudno bowiem wyobrazić sobie sytuację, w której algorytm rozpoznaje na podstawie wyglądu potencjalnego przestępcę i następnie dąży do jego wyeliminowania ze społeczeństwa, aby ochronić w ten sposób resztę ludzi? Dajmy na to, że z początku będzie to „jedynie” wykluczenie cyfrowe lub np. niemożność skorzystania ze środków zbiorowego transportu. Brzmi jak science fiction? Niestety niekoniecznie.

„Hodujemy sobie gatunek, który stanie się – efektywniejszy od nas – naszym naturalnym wrogiem. Będzie dysponował tym, co zawsze było naszym atutem – intelektem. Jesteśmy słabi fizycznie, wolni, nie radzimy sobie w środowisku, padlibyśmy, gdyby nie to, że mamy lepszy mózg. Jeśli wyhodujemy sobie konkurencję, będzie po nas” – wskazuje w programie „Didaskalia” profesor fizyki Andrzej Dragan. „Narzędzie zostało stworzone w taki sposób, by nam służyć. Człowiek zawsze mógł decydować, jaki zrobi użytek z wynalazku. Tymczasem nóż nie zdecyduje, że nam zaszkodzi, a to urządzenie może to zrobić. To dość niepokojące. Nie rozumiemy, jak to wszystko działa, bo wymyśliliśmy tylko sposób pisania algorytmów uczenia maszynowego. Teraz nie wiemy, co może się wydarzyć. Nie mamy pojęcia, czy będziemy umieli kontrolować ten proces. Nie potrafię sobie wyobrazić takiego wariantu, żeby to się dla nas źle nie skończyło” – ostrzega naukowiec.

Na niebezpieczeństwa nieograniczonego stosowania sztucznej inteligencji wskazuje także psycholog María Alejandra Castro Arbeláez. „Kiedy instalujemy program na naszym komputerze lub aplikację na telefonie komórkowym, zgadzamy się na warunki, które rzadko czytamy. Uważamy, że jeśli większość je akceptuje, my też możemy je przyjąć. Tym sposobem wielokrotnie udzielamy przywilejów, z których nie do końca zdajemy sobie sprawę. Z drugiej strony, każdy psycholog w swoim zawodzie rządzi się kodeksem etycznym. Zdaje sobie sprawę, że istnieją zasady i jeśli je naruszy, będzie musiał odpowiedzieć przed właściwym organem. Mówimy o poziomie świadomości, do którego z trudnością może dotrzeć maszyna” – pisze psycholog na portalu pieknoumyslu.com. „Sztuczna inteligencja i psychologia pozostają w relacji, która być może kryje dwa wielkie niebezpieczeństwa. Pierwsze to dzielenie się zbyt wrażliwymi danymi z maszyną zaprogramowaną w języku, którego użytkownik nie zna. A drugie to brak świadomości pewnych standardów – kodu deontologicznego – które powinny regulować określone usługi, korzyści lub działania czy zajęcia” – dodaje Arbeláez.

Zespół stresu elektronicznego

Kolejnym niebezpieczeństwem związanym ze sztuczną inteligencją jest sama kwestia konsekwencji nadmiernego stosowania urządzeń elektronicznych skutkującego nie tylko uzależnieniami, problemami ze skupieniem uwagi, przebodźcowaniem, ale nawet zmianami w mózgu. Dotyczy to szczególnie dzieci i młodzieży. „Szkoła jest miejscem zdobywania wiedzy i rozwijania talentów, dlatego powinna zapewniać uczniom warunki do należytego skupienia uwagi. Nie jest to możliwe, gdy silne bodźce generowane przez smartfony lub smartwatche odciągają uwagę uczniów od przedmiotu zajęć. Pogłębia to trudności związane z przyswajaniem wiedzy i nabywanych umiejętności. Ponadto, nie można bagatelizować szkodliwego wpływu technologii na zdrowie fizyczne i psychiczne dzieci i młodzieży. Badania wskazują na coraz więcej jednostek chorobowych, spowodowanych nadmiernym korzystaniem z urządzeń elektronicznych. Problem zbyt dużej obecności ekranów w życiu dzieci prowadzi m.in. do: zaburzeń koncentracji uwagi, nadpobudliwości ruchowej i rozdrażnienia, stanów lękowych i depresyjnych, obniżenia zdolności interpersonalnych i zmniejszenia umiejętności językowych, popadania w nałogi, na czele z uzależnieniem od pornografii, mediów społecznościowych i gier. Badania pokazują, że w Polsce zjawisko problematycznego użytkowania internetu dotyczy już co trzeciego nastolatka, a trzech na stu wymaga specjalistycznej pomocy. 28 proc. deklaruje, że z powodu nadużywania internetu miało zawroty głowy bądź pogorszył im się wzrok. 35 proc. przyznaje, że z tego samego powodu odczuwa przemęczenie i niedostatek snu. Aż 40 proc. nastolatek podpisało się pod twierdzeniem, że «Moje życie byłoby puste bez mojego telefonu/smartfona»” – piszą w liście otwartym do ministra edukacji i nauki Przemysława Czarnka organizatorzy akcji „Szkoła bez smartfonów” zorganizowanej przez Centrum Życia i Rodziny. „Dlatego tak ważne jest podjęcie wszelkich możliwych działań, aby ryzyko szkodliwego wpływu użytkowania tych urządzeń na zdrowie dzieci i młodzieży zredukować do minimum. Przykład innych państw pokazuje, że wprowadzenie takich rozwiązań jest możliwe i przynosi pożądane rezultaty. Wystarczy wspomnieć Francję, Australię, Włochy i kanadyjską prowincję Ontario” – dodają.

„Dziecko, które wiele godzin przesiaduje przed ekranem, może trwale uszkodzić sobie mózg” – ostrzega w rozmowie z Polskim Radiem psycholog Bogna Białecka. Postuluje ona stopniową zmianę kultury cyfrowej w Polsce. „Chodzi o to, aby normą było nieposiadanie smartfona przez dziecko i aby jego brak nie powodował wykluczenia z grupy” – tłumaczy, dodając, że dziecko nie musi być uzależnione, aby pojawiły się u niego problemy rozwojowe. „Naukowcy mówią m.in. o zespole stresu elektronicznego, który wiążą ze zwiększoną liczbą diagnoz ADHD i innych zaburzeń rozwojowych. Oglądanie krótkich filmików powoduje m.in. problemy ze skupieniem uwagi” – podkreśla Białecka.

Nie należy, rzecz jasna, wylewać dziecka z kąpielą i w związku z zagrożeniami cyfrowymi palić komputerów i przechodzić na drewniane liczydła. O ile sztuczna inteligencja z pewnością może znaleźć zastosowanie w analizie danych w kryminologii (choćby do porównywania śladów DNA znalezionych na miejscu zbrodni z tymi zgromadzonymi w policyjnych bazach danych), to jednak jej wykorzystywanie w procesie terapeutycznym wymaga już głębszego zastanowienia, także nad kwestią tego, jakie czynniki decydują o powodzeniu terapii. Tym, co leczy, jest przecież nie tylko możliwość wyrzucenia z siebie nagromadzonych emocji, nazwania ich i „przepracowania” w toku stopniowej zmiany destrukcyjnych przekonań, ale przede wszystkim – nawiązanie opartej na zaufaniu więzi terapeutycznej. Robot może wypełnić tę funkcję jedynie w pewnym ograniczonym stopniu. Jego „przewagą” nad terapeutą-człowiekiem może być fakt stałej dostępności sztucznej inteligencji, która – w przeciwieństwie do realnego terapeuty – nie będzie miała gorszego dnia, nie popełni błędu ani nie zachoruje. Czy jednak tego rodzaju terapia przybliży pacjenta do lepszego kontaktowania się z – niedoskonałymi przecież – realnymi ludźmi, w tym niedoskonałym samym sobą? Czy pacjent nie uzależni się od tego – niemal doskonałego przecież – terapeuty? Czy się w nim nie zakocha? I wreszcie – last but not least – co, jeśli w którymś momencie wyłączy mu się prąd?

Tekst pochodzi z 20 (1790) numeru „Tygodnika Solidarność”.


 

POLECANE
Kosiniak-Kamysz bez konkurencji? Ludowcy wybiorą nowe władze PSL polityka
Kosiniak-Kamysz bez konkurencji? Ludowcy wybiorą nowe władze PSL

W sobotę 15 listopada odbędzie się kongres Polskiego Stronnictwa Ludowego, podczas którego wybrane zostaną nowe władze partii. Wszystko wskazuje na to, że Władysław Kosiniak-Kamysz pozostanie na stanowisku prezesa, a o fotel szefa Rady Naczelnej powalczą Waldemar Pawlak i Piotr Zgorzelski.

Brutalny atak izraelskich osadników na Palestyńczyków podczas zbioru oliwek z ostatniej chwili
Brutalny atak izraelskich osadników na Palestyńczyków podczas zbioru oliwek

Co najmniej 15 osób zostało rannych, gdy izraelscy osadnicy zaatakowali Palestyńczyków i dziennikarzy podczas zbioru oliwek na Zachodnim Brzegu. Wśród poszkodowanych znalazła się fotoreporterka agencji Reutera, Raneen Sawafta.

Koniec mitu Ławrowa? Łukasz Jasina zdradza kulisy spotkań z rosyjskim dyplomatą tylko u nas
Koniec mitu Ławrowa? Łukasz Jasina zdradza kulisy spotkań z rosyjskim dyplomatą

Przez ponad dwie dekady Siergiej Ławrow był twarzą rosyjskiej polityki zagranicznej i symbolem dyplomatycznego cynizmu Kremla. Dziś coraz częściej pojawiają się sygnały, że jego czas dobiega końca – nie prowadzi już delegacji Rosji na szczytach G20, mówi się o jego odsunięciu. Były rzecznik MSZ Łukasz Jasina wspomina spotkania z Ławrowem i pokazuje, jak naprawdę wyglądała rosyjska dyplomacja „od kuchni”.

Zimowa przerwa w Tatrach. „Elektryki” znikają z trasy do Morskiego Oka Wiadomości
Zimowa przerwa w Tatrach. „Elektryki” znikają z trasy do Morskiego Oka

Elektryczne busy na trasie do Morskiego Oka w połowie listopada przestaną kursować na okres zimowy. Przerwę Tatrzański Park Narodowy (TPN) wykorzysta na przegląd techniczny pojazdów. W tym czasie na popularnym szlaku nadal będą kursować tradycyjne zaprzęgi konne, ale wozy zastąpią sanie.

Gazeta Wyborcza pochowała żyjącego Powstańca. W sieci zawrzało gorące
Gazeta Wyborcza "pochowała" żyjącego Powstańca. W sieci zawrzało

W piątek Wojska Obrony Terytorialnej poinformowały o śmierci ppłk. Zbigniewa Rylskiego „Brzozy”, ostatniego z obrońców Pałacyku Michla. O wydarzeniu napisały również Gazeta.pl i Gazeta Wyborcza, jednak w publikacjach zamieszczono zdjęcie innego, wciąż żyjącego Powstańca – ppłk. Jakuba Nowakowskiego „Tomka”. Błąd szybko zauważyli internauci, którzy wezwali redakcję do sprostowania.

Julia W. skazana w UK: twierdziła, że jest zaginioną Madeleine McCann Wiadomości
Julia W. skazana w UK: twierdziła, że jest zaginioną Madeleine McCann

24-letnia Julia W. z Dolnego Śląska została skazana na sześć miesięcy więzienia przez brytyjski sąd za nękanie rodziców zaginionej Madeleine McCann. Kobieta przekonywała, że jest zaginioną dziewczynką, co wzbudziło duże zainteresowanie mediów społecznościowych już na początku 2023 roku.

Kompromitacja rzecznika rządu Donalda Tuska Adama Szłapki na platformie X gorące
Kompromitacja rzecznika rządu Donalda Tuska Adama Szłapki na platformie "X"

W relacjach między premierem Donaldem Tuskiem a prezydentem Karolem Nawrockim doszło do kolejnego sporu – tym razem o zasady współpracy ze służbami specjalnymi. Prezydent poinformował, że premier zakazał szefom służb kontaktów z głową państwa, co Biuro Bezpieczeństwa Narodowego uznało za „groźne dla bezpieczeństwa Polski”. W związku z brakiem kontaktu z szefami służb Karol Nawrocki wstrzymał nominacje oficerskie.

Rosja w gotowości nuklearnej. Putin reaguje na decyzje Trumpa Wiadomości
Rosja w gotowości nuklearnej. Putin reaguje na decyzje Trumpa

Prezydent Rosji Władimir Putin polecił rozpoczęcie przygotowań do potencjalnych prób broni jądrowej. Decyzja Kremla jest odpowiedzią na wcześniejsze zapowiedzi Stanów Zjednoczonych dotyczące wznowienia testów nuklearnych. Szef rosyjskiej dyplomacji Siergiej Ławrow potwierdził, że polecenia zostały już przyjęte do realizacji.

Nie żyje legenda polskiej fotografii z ostatniej chwili
Nie żyje legenda polskiej fotografii

Nie żyje Andrzej Świetlik, polski fotografik, który przez dekady utrwalał w obiektywie najważniejsze postaci kultury, muzyki i polityki. Artysta odszedł 8 listopada.

Gigantyczne korki w Krakowie. Zmiany w organizacji ruchu i objazdy z ostatniej chwili
Gigantyczne korki w Krakowie. Zmiany w organizacji ruchu i objazdy

Sobota, 8 listopada, przyniosła gigantyczne korki w północno-wschodniej części Krakowa. Szczególnie trudna była sytuacja na ulicy Bora-Komorowskiego, gdzie ruch niemal całkowicie się zatrzymał. Kierowcy utknęli w wielokilometrowych zatorach, a dostęp do Galerii Serenada i pobliskich sklepów był mocno utrudniony.

REKLAMA

Czy zawód psychoterapeuty zostanie wkrótce przejęty przez roboty?

W warszawskiej Szkole Wyższej Psychologii Społecznej na kierunku „psychologia i informatyka” można zrobić specjalność ze sztucznej inteligencji. Do uczestnictwa w niej zachęca dr Michał Boni, pisząc: „psycholog korzystający z systemów sztucznej inteligencji czy narzędzi algorytmicznych będzie w swojej pracy osiągał to, co jeszcze niedawno było nie do wyobrażenia”.
robot - zdjęcie poglądowe Czy zawód psychoterapeuty zostanie wkrótce przejęty przez roboty?
robot - zdjęcie poglądowe / fot. pixabay.com

I rzeczywiście, możliwości sztucznej inteligencji wydają się nieograniczone. Czy zawód psychoterapeuty stanie się kolejnym rynkiem pracy powoli przejmowanym przez roboty?

„Rozumiem / opowiedz mi więcej”

Anna Jarosz-Bilińska na portalu psychologiawpraktyce.pl przypomina początki wykorzystywania sztucznej inteligencji w psychoterapii. „Chatboty są często używane na stronach internetowych jako interaktywne, wirtualne postacie zastępujące żywych konsultantów, odpowiadające na pytania z zakresu usług i działalności danej firmy. Ich historia sięga lat 60. XX wieku. To właśnie wtedy Joseph Weizenbaum z Massachusetts Institute of Technology (MIT) opracował Elizę, znaną także jako «the Doctor». Jest to pierwszy program symulujący rozmowę terapeutyczną człowieka z maszyną. Chatbot, choć prosty w swojej konstrukcji, był zdolny przeprowadzić nieskomplikowany dialog z pacjentem. Iluzję prawdziwej rozmowy można było uzyskać za pomocą przestawiania fraz i słów kluczowych, które następnie były używane w wypowiedziach Elizy. Podczas rozmowy często pojawiają się uniwersalne zwroty, takie jak: «rozumiem» lub «opowiedz mi więcej o X», co pozwalało utrzymywać iluzję rozmowy z terapeutą i tym samym zwodzić przez dłuższy czas osoby badane”.

Jarosz-Bilińska przytacza transkrypcję jednej z konwersacji pacjenta z robotem terapeutą:
„Eliza: Powiedz mi, co Cię martwi? Pacjent: Wszystko. Eliza: Powiedz mi więcej o tym. Pacjent: Ostatnio wszystko mi przeszkadza. Eliza: Mówienie o tym Ci przeszkadza? Pacjent: Co dziwne, nie. Eliza: Dlaczego nie? Pacjent: Po prostu, nie. Eliza: Nie jestem pewna, czy rozumiem Cię w pełni. Pacjent: Rozmawianie o tym mi nie przeszkadza. Eliza: Jesteś zdecydowany, żeby o tym porozmawiać? Pacjent: Nie wiem, a powinienem? Eliza: Naprawdę nie wiesz? Pacjent: Naprawdę nie wiem. Eliza: Dlaczego? Pacjent: Pomożesz mi czy nie? Eliza: Dlaczego jesteś zainteresowany tym, czy jestem tu po to, żeby Ci pomóc?”.

Jak wskazuje autorka opracowania, mimo iż pacjenci wiedzieli, że nawiązują dialog z robotem, a nie z realnym człowiekiem, i tak traktowali te sesje poważnie i przywiązywali się do nich. „Jedna z anegdot dotyczy sekretarki samego Weizenbauma. Pewnego dnia kobieta poprosiła go o opuszczenie pokoju, aby mogła odbyć rozmowę z Elizą. Twórca programu był tym zaskoczony, pisząc później: «Nie zdawałem sobie sprawy, że bardzo krótkie ekspozycje na stosunkowo prosty program komputerowy mogą wywołać silne myślenie urojeniowe u całkiem normalnych ludzi»” – pisze Jarosz-Bilińska.

„Dziś Eliza ma skuteczniejszych i niezwykle wiarygodnych następców, takich jak Tess firmy X2AI. Można z nią porozmawiać poprzez SMS-y, komunikator Facebook Messenger i kilka innych platform. Nie wymaga dodatkowych aplikacji – z punktu widzenia użytkownika jest numerem telefonu komórkowego” – wskazuje na portalu Focus.pl psycholog dr Tomasz Witkowski. Za sprawą sztucznej inteligencji Tess pacjenci mogą korzystać z terapii i psychoedukacji. I chwalą to sobie. „Byłam wstrząśnięta tym, jak naturalnie czułam się podczas tej rozmowy. W ciągu kilku minut zapomniałam, że moim rozmówcą w rzeczywistości jest komputer” – opowiada cytowana przez dr. Witkowskiego Alison Berman z Singularity University. Autor artykułu podkreśla, że aplikacje cyfrowe oparte na metodach stosowanych w terapii poznawczo-behawioralnej w Wielkiej Brytanii są już standardem w zaleceniach psychoterapeutycznych dotyczących pracy z lękiem i depresją. „Także i w Polsce trwają prace nad podobnymi rozwiązaniami – zaangażowane są w to Uniwersytet SWPS i firma Norbsoft” – pisze Witkowski. I dodaje: „Nadal w procesie leczenia bierze udział psycholog potrzebny np. do postawienia diagnozy. Jednak wkrótce i to może się zmienić”.

Zamykamy za wygląd?

Dalsza część artykułu wskazuje już na mocno kontrowersyjne zagadnienia. Nie sposób uniknąć tu skojarzeń ze słynnymi teoriami włoskiego psychiatry i kryminologa Cesarego Lombrosa, który skłonności przestępczych upatrywał w określonych cechach fizycznych, takich jak np. mocno wysunięta dolna szczęka, nadmierne owłosienie, ciemny odcień skóry, nieprawidłowości w kształcie czaszki, zez, cofnięte czoło, duże uszy, mięsiste usta czy… leworęczność. Czy pomysły „zamykania za wygląd” mają szansę powrócić w XXI wieku? „Xiaolin Wu i Xi Zhang z Shanghai Jiao Tong University stworzyli sieć neuronową – program, który uczy się na podstawie dostarczonych mu danych. Po «nakarmieniu» go zdjęciami różnych obywateli Chin uzyskali algorytm rozpoznający przestępców z dokładnością bliską 90 proc. Okazało się, że znaczenie ma tylko kilka cech. Naukowcy nadal nie wiedzą, dlaczego akurat taka budowa twarzy ma związek ze skłonnościami przestępczymi, ani czy fenomen nie dotyczy wyłącznie osób pochodzenia azjatyckiego. Jedno jest już jednak pewne – w tym względzie sztuczna inteligencja może co najmniej dorównać ludzkiej intuicji” – pisze dr Witkowski.
W tym miejscu nie sposób się nie zatrzymać i nie zastanowić nad tym, jak niebezpiecznym narzędziem może okazać się pozbawiona ludzkiej kontroli sztuczna inteligencja. Czy trudno bowiem wyobrazić sobie sytuację, w której algorytm rozpoznaje na podstawie wyglądu potencjalnego przestępcę i następnie dąży do jego wyeliminowania ze społeczeństwa, aby ochronić w ten sposób resztę ludzi? Dajmy na to, że z początku będzie to „jedynie” wykluczenie cyfrowe lub np. niemożność skorzystania ze środków zbiorowego transportu. Brzmi jak science fiction? Niestety niekoniecznie.

„Hodujemy sobie gatunek, który stanie się – efektywniejszy od nas – naszym naturalnym wrogiem. Będzie dysponował tym, co zawsze było naszym atutem – intelektem. Jesteśmy słabi fizycznie, wolni, nie radzimy sobie w środowisku, padlibyśmy, gdyby nie to, że mamy lepszy mózg. Jeśli wyhodujemy sobie konkurencję, będzie po nas” – wskazuje w programie „Didaskalia” profesor fizyki Andrzej Dragan. „Narzędzie zostało stworzone w taki sposób, by nam służyć. Człowiek zawsze mógł decydować, jaki zrobi użytek z wynalazku. Tymczasem nóż nie zdecyduje, że nam zaszkodzi, a to urządzenie może to zrobić. To dość niepokojące. Nie rozumiemy, jak to wszystko działa, bo wymyśliliśmy tylko sposób pisania algorytmów uczenia maszynowego. Teraz nie wiemy, co może się wydarzyć. Nie mamy pojęcia, czy będziemy umieli kontrolować ten proces. Nie potrafię sobie wyobrazić takiego wariantu, żeby to się dla nas źle nie skończyło” – ostrzega naukowiec.

Na niebezpieczeństwa nieograniczonego stosowania sztucznej inteligencji wskazuje także psycholog María Alejandra Castro Arbeláez. „Kiedy instalujemy program na naszym komputerze lub aplikację na telefonie komórkowym, zgadzamy się na warunki, które rzadko czytamy. Uważamy, że jeśli większość je akceptuje, my też możemy je przyjąć. Tym sposobem wielokrotnie udzielamy przywilejów, z których nie do końca zdajemy sobie sprawę. Z drugiej strony, każdy psycholog w swoim zawodzie rządzi się kodeksem etycznym. Zdaje sobie sprawę, że istnieją zasady i jeśli je naruszy, będzie musiał odpowiedzieć przed właściwym organem. Mówimy o poziomie świadomości, do którego z trudnością może dotrzeć maszyna” – pisze psycholog na portalu pieknoumyslu.com. „Sztuczna inteligencja i psychologia pozostają w relacji, która być może kryje dwa wielkie niebezpieczeństwa. Pierwsze to dzielenie się zbyt wrażliwymi danymi z maszyną zaprogramowaną w języku, którego użytkownik nie zna. A drugie to brak świadomości pewnych standardów – kodu deontologicznego – które powinny regulować określone usługi, korzyści lub działania czy zajęcia” – dodaje Arbeláez.

Zespół stresu elektronicznego

Kolejnym niebezpieczeństwem związanym ze sztuczną inteligencją jest sama kwestia konsekwencji nadmiernego stosowania urządzeń elektronicznych skutkującego nie tylko uzależnieniami, problemami ze skupieniem uwagi, przebodźcowaniem, ale nawet zmianami w mózgu. Dotyczy to szczególnie dzieci i młodzieży. „Szkoła jest miejscem zdobywania wiedzy i rozwijania talentów, dlatego powinna zapewniać uczniom warunki do należytego skupienia uwagi. Nie jest to możliwe, gdy silne bodźce generowane przez smartfony lub smartwatche odciągają uwagę uczniów od przedmiotu zajęć. Pogłębia to trudności związane z przyswajaniem wiedzy i nabywanych umiejętności. Ponadto, nie można bagatelizować szkodliwego wpływu technologii na zdrowie fizyczne i psychiczne dzieci i młodzieży. Badania wskazują na coraz więcej jednostek chorobowych, spowodowanych nadmiernym korzystaniem z urządzeń elektronicznych. Problem zbyt dużej obecności ekranów w życiu dzieci prowadzi m.in. do: zaburzeń koncentracji uwagi, nadpobudliwości ruchowej i rozdrażnienia, stanów lękowych i depresyjnych, obniżenia zdolności interpersonalnych i zmniejszenia umiejętności językowych, popadania w nałogi, na czele z uzależnieniem od pornografii, mediów społecznościowych i gier. Badania pokazują, że w Polsce zjawisko problematycznego użytkowania internetu dotyczy już co trzeciego nastolatka, a trzech na stu wymaga specjalistycznej pomocy. 28 proc. deklaruje, że z powodu nadużywania internetu miało zawroty głowy bądź pogorszył im się wzrok. 35 proc. przyznaje, że z tego samego powodu odczuwa przemęczenie i niedostatek snu. Aż 40 proc. nastolatek podpisało się pod twierdzeniem, że «Moje życie byłoby puste bez mojego telefonu/smartfona»” – piszą w liście otwartym do ministra edukacji i nauki Przemysława Czarnka organizatorzy akcji „Szkoła bez smartfonów” zorganizowanej przez Centrum Życia i Rodziny. „Dlatego tak ważne jest podjęcie wszelkich możliwych działań, aby ryzyko szkodliwego wpływu użytkowania tych urządzeń na zdrowie dzieci i młodzieży zredukować do minimum. Przykład innych państw pokazuje, że wprowadzenie takich rozwiązań jest możliwe i przynosi pożądane rezultaty. Wystarczy wspomnieć Francję, Australię, Włochy i kanadyjską prowincję Ontario” – dodają.

„Dziecko, które wiele godzin przesiaduje przed ekranem, może trwale uszkodzić sobie mózg” – ostrzega w rozmowie z Polskim Radiem psycholog Bogna Białecka. Postuluje ona stopniową zmianę kultury cyfrowej w Polsce. „Chodzi o to, aby normą było nieposiadanie smartfona przez dziecko i aby jego brak nie powodował wykluczenia z grupy” – tłumaczy, dodając, że dziecko nie musi być uzależnione, aby pojawiły się u niego problemy rozwojowe. „Naukowcy mówią m.in. o zespole stresu elektronicznego, który wiążą ze zwiększoną liczbą diagnoz ADHD i innych zaburzeń rozwojowych. Oglądanie krótkich filmików powoduje m.in. problemy ze skupieniem uwagi” – podkreśla Białecka.

Nie należy, rzecz jasna, wylewać dziecka z kąpielą i w związku z zagrożeniami cyfrowymi palić komputerów i przechodzić na drewniane liczydła. O ile sztuczna inteligencja z pewnością może znaleźć zastosowanie w analizie danych w kryminologii (choćby do porównywania śladów DNA znalezionych na miejscu zbrodni z tymi zgromadzonymi w policyjnych bazach danych), to jednak jej wykorzystywanie w procesie terapeutycznym wymaga już głębszego zastanowienia, także nad kwestią tego, jakie czynniki decydują o powodzeniu terapii. Tym, co leczy, jest przecież nie tylko możliwość wyrzucenia z siebie nagromadzonych emocji, nazwania ich i „przepracowania” w toku stopniowej zmiany destrukcyjnych przekonań, ale przede wszystkim – nawiązanie opartej na zaufaniu więzi terapeutycznej. Robot może wypełnić tę funkcję jedynie w pewnym ograniczonym stopniu. Jego „przewagą” nad terapeutą-człowiekiem może być fakt stałej dostępności sztucznej inteligencji, która – w przeciwieństwie do realnego terapeuty – nie będzie miała gorszego dnia, nie popełni błędu ani nie zachoruje. Czy jednak tego rodzaju terapia przybliży pacjenta do lepszego kontaktowania się z – niedoskonałymi przecież – realnymi ludźmi, w tym niedoskonałym samym sobą? Czy pacjent nie uzależni się od tego – niemal doskonałego przecież – terapeuty? Czy się w nim nie zakocha? I wreszcie – last but not least – co, jeśli w którymś momencie wyłączy mu się prąd?

Tekst pochodzi z 20 (1790) numeru „Tygodnika Solidarność”.



 

Polecane
Emerytury
Stażowe