Radio Opole » Kraj i świat
2023-06-06, 18:20 Autor: PAP

Ekspert: nie straszmy sztuczną inteligencją, tylko nazywajmy obawy bardziej konkretnie

Nie straszmy sztuczną inteligencją (SI), tylko nazywajmy obawy bardziej konkretnie – nawołuje prof. Nello Cristianini z University of Bath, który sam jest ekspertem w tej dziedzinie.

Na łamach portalu „The Conversation” prof. Nello Cristianini z University of Bath próbuje chłodzić emocje wokół oświadczenia “Statement on AI risk”, w którym eksperci od sztucznej inteligencji i inne osoby wyrażają zaniepokojenie ryzykiem związanym z SI.


Oświadczenie ekspertów opublikowała pod koniec maja br. organizacja pozarządowa Centrum na Rzecz Bezpieczeństwa AI (CAIS), która poinformowała, że zrobiła to, aby skłonić specjalistów, dziennikarzy i polityków do zainicjowania szerokiej społecznej debaty na temat ryzyka związanego z bardzo szybkim rozwojem AI.


Wśród 350 sygnatariuszy komunikatu jest między innymi Geoffrey Hinton nazywany "ojcem chrzestnym sztucznej inteligencji", który odszedł z Google'a, by swobodnie ostrzegać przed zagrożeniami związanymi z AI oraz Sam Altman - dyrektor wykonawczy firmy OpenAI, która jest twórcą popularnego chatbota ChatGPT, a także menedżerowie najsłynniejszych spółek specjalizujących się w AI, jak Google, DeepMind, Microsoft czy Anthropic.


Jej kluczowe zdanie brzmi: „Zmniejszenie ryzyka wyginięcia – wywołanego przez sztuczną inteligencję powinno być globalnym priorytetem obok innych zagrożeń na skalę społeczną – takich jak pandemie i wojna nuklearna”.


Dla prof. Cristianiniego są to bardzo mocne słowa, ale jednak mało konkretne.


„Jako profesor sztucznej inteligencji jestem również zwolennikiem ograniczania wszelkiego ryzyka i jestem gotów osobiście nad tym pracować. Ale każde stwierdzenie sformułowane w taki sposób musi wywołać alarm, więc jego autorzy powinni być bardziej konkretni i wyjaśnić swoje obawy” – stwierdza prof. Cristianini.


Odnosi się do słów „wyginięcie/wymieranie” i mówi wprost, że nikt nie przedstawił do tej pory scenariusza, w jaki sposób mogłoby się to stać.


„Spotkałem wielu sygnatariuszy oświadczenia, którzy należą do najbardziej cenionych naukowców w tej dziedzinie – i z pewnością chcą dobrze. Nie dali nam jednak żadnego namacalnego scenariusza, w jaki sposób mogłoby dojść do takiego ekstremalnego zdarzenia” – zauważa ekspert.


Dodaje też, że petycja nie jest pierwszą, która przyczynia się do rozpowszechnienia wyobrażeń o SI jako sprawcy największego zła. 22 marca tego roku inna grupa przedsiębiorców i badaczy zażądała sześciomiesięcznej przerwy we wdrażaniu sztucznej inteligencji. W petycji na stronie internetowej „Future of Life Institute” napisano, że SI to „ogromne zagrożenie dla społeczeństwa i ludzkości, jak wykazały szeroko zakrojone badania i potwierdzone przez najlepsze laboratoria sztucznej inteligencji”.


Do wniosku dołączono też listę pytań: „Czy powinniśmy pozwolić maszynom zalewać nasze kanały informacyjne propagandą i nieprawdą? Czy powinniśmy rozwijać nieludzkie umysły, które mogą ostatecznie przewyższyć liczebnie i zastąpić nas? Czy powinniśmy ryzykować utratę kontroli nad naszą cywilizacją?”


Prof. Cristianini podkreśla, że takie przedstawienie tematu niczego nie wyjaśnia, a jedynie wpędza odbiorców w głęboki niepokój.


„Z pewnością prawdą jest, że oprócz wielu korzyści technologia ta wiąże się z ryzykiem, które musimy traktować poważnie. Ale żaden z wyżej wymienionych scenariuszy nie wydaje się nakreślać konkretnej ścieżki do wyginięcia. Oznacza to, że zostajemy z ogólnym poczuciem niepokoju, bez żadnych możliwych działań, które moglibyśmy podjąć” – zauważa ekspert.


Centrum na Rzecz Bezpieczeństwa AI na swojej stronie internetowej wskazuje, że głównym zmartwieniem wydaje się być wykorzystanie systemów sztucznej inteligencji do projektowania broni chemicznej.


„Należy temu zapobiec za wszelką cenę, ale broń chemiczna jest już zakazana” – podkreśla Cristianini.


16 maja, podczas przesłuchania w Senacie USA, Sam Altman, dyrektor generalny OpenAI – firmy, która opracowała chatbota ChatGPT4 – został dwukrotnie poproszony o przedstawienie swojego najgorszego scenariusza dotyczącego rozwoju SI. W końcu odpowiedział: „Najbardziej obawiam się, że my – reprezentanci tej dziedziny, technologia, przemysł – wyrządzimy światu znaczne szkody. Myślę, że jeśli ta technologia pójdzie źle, może pójść całkiem źle. Właśnie dlatego założyliśmy firmę, aby zapobiec takiej przyszłości”.


Prof. Cristianini, uważa że pierwszym krokiem ku lepszej przyszłości, jest konkretne nazwanie i opisanie problemu.


„Chociaż zdecydowanie opowiadam się za zachowaniem możliwie jak największej ostrożności i powtarzam to publicznie od dziesięciu lat, ważne jest zachowanie poczucia proporcji. Sztuczna inteligencja może stwarzać problemy społeczne, którym naprawdę trzeba zapobiegać. Jako naukowcy mamy obowiązek je zrozumieć, a następnie zrobić wszystko, co w naszej mocy, aby je rozwiązać. Ale pierwszym krokiem jest ich nazwanie i opisanie – i bycie konkretnym” – napisał Cristianini.(PAP)


Autorka: Urszula Kaczorowska


uka/ agt/


Kraj i świat

2024-05-03, godz. 17:10 Ekstraklasa piłkarska - trener Piasta: wygrana w Kielcach zapewni nam utrzymanie Piłkarze Piasta Gliwice po trzech z rzędu wygranych zagrają w niedzielę na wyjeździe z broniącą się przed spadkiem kielecką Koroną w 31. kolejce ekstraklasy… » więcej 2024-05-03, godz. 17:10 Łódź/ Po czterech latach zatrzymano we Francji podejrzewanego o spowodowanie śmiertelnego wypadku Po czterech latach poszukiwań policjanci zatrzymali we Francji podejrzewanego o spowodowanie wypadku w Łodzi, w którym zginęły dwie osoby. Mężczyzna ukrywał… » więcej 2024-05-03, godz. 17:00 Prof. Kowalski: działania KRRiT w sprawie abonamentu są niezgodne z prawem Mediom publicznym zdecydowanie należą się środki z abonamentu RTV; blokowanie ich wypłaty przez Krajową Radę Radiofonii i Telewizji jest niezgodne z prawem… » więcej 2024-05-03, godz. 17:00 Niemcy/ W Berlinie pożar w zakładach metalurgicznych Diehl Metal W Berlinie wybuchł w piątek rano pożar w zakładach metalurgicznych niemieckiej firmy Diehl Metal, należącej do grupy produkującej również broń, w tym… » więcej 2024-05-03, godz. 17:00 Ekstraklasa piłkarska - Feio: skupiamy się na swoich zadaniach 'Wiele drużyn w ekstraklasie cały czas o coś gra. Radomiak ma swoje cele, ale my skupiamy się na sobie i swojej sytuacji' - powiedział trener piłkarzy Legii… » więcej 2024-05-03, godz. 17:00 Pikniki, defilady i koncerty - tak Polscy świętowali Święto Konstytucji 3 maja Koncerty, pikniki, defilady, pokazy tańców narodowych czy zwiedzanie zabytkowych tramwajów i autobusów - tak Polacy świętowali 233. rocznicę uchwalenia… » więcej 2024-05-03, godz. 17:00 Hiszpania/ Rekordowa liczba zagranicznych turystów w I kwartale tego roku - ponad 16,1 mln Rok 2024 może być rekordowy pod względem liczby przybywających do Hiszpanii zagranicznych turystów. Od stycznia do marca przyjechało tam na wczasy ponad… » więcej 2024-05-03, godz. 16:50 USA/ Biden: w Strefie Gazy zginęło stanowczo zbyt wielu dziennikarzy W obchodzony w piątek Światowy Dzień Wolności Prasy chylimy czoła przed odwagą i poświęceniem dziennikarzy, którzy ryzykują życiem, by opisywać prawdę… » więcej 2024-05-03, godz. 16:40 PP piłkarek ręcznych - Zagłębie pierwszym finalistą Piłkarki ręczne KGHM Zagłębia Lubin pokonały w Kaliszu KPR Gminy Kobierzyce 25:19 (13:8) w pierwszym meczu półfinałowym Pucharu Polski. O godz. 17 rozpocznie… » więcej 2024-05-03, godz. 16:20 Chiny/ Wystrzelono sondę księżycową, która ma dotrzeć na niewidoczną stronę satelity Ziemi Chiny wystrzeliły w piątek sondę księżycową Chang-6 , która ma wylądować na niewidocznej stronie srebrnego globu i przywieźć na Ziemię pobrane tam… » więcej
1234567
Ta strona używa ciasteczek (cookies), dzięki którym nasz serwis może działać lepiej. Dowiedz się więcej »