HumanTech Meetings II: Wiara w Bota. Moralność i rzetelność programu ChatGPT
ChatGPT ma już 100 milionów użytkowników. Pierwszy milion chętnych skorzystał z tej aplikacji w ciągu pięciu dni od udostępnienia jej ogółowi internautów. Sztuczna inteligencja staje się częścią naszej codzienności. Pytamy ją o wszystko – od zagadnień z wiedzy ogólnej, przez kwestie językowe, po porady odnośnie planowania kariery zawodowej. I zdarza się, że zbytnio ufamy w prawdziwość uzyskanych odpowiedzi. O krytycznym podejściu do algorytmów i wyzwaniach związanych z rozwojem sztucznej inteligencji porozmawiamy podczas kolejnego spotkania z cyklu HumanTech Meetings.
Czy możemy ufać botom?
Z przyjemnością zapraszamy na kolejne spotkanie naukowe w ramach projektu HumanTech Meetings, które tym razem poświęcone będzie botowi ChatGPT.
Podczas tego spotkania poruszymy kwestie dotyczące etycznych i moralnych wyzwań, jakie stawiają przed nami rozwijające się technologie AI. W szczególności skoncentrujemy się na pytaniach, jakie należy postawić przed programem ChatGPT w kontekście jego rzetelności i moralności, jakie zagrożenia niesie ze sobą jego stosowanie i jakie kroki należy podjąć, aby zagwarantować, że sztuczna inteligencja będzie służyć człowiekowi w sposób etyczny i zgodny z jego wartościami.
Głównymi prelegentami będą dr Sebastian Krügel oraz prof. dr hab. inż. Przemysław Kazienko, którzy przedstawią swoje podejścia i wyniki badań dotyczące botów tworzonych na bazie sztucznej inteligencji.
UWAGA: Powyższy tekst zaproszenia został w celach demonstracyjnych wygenerowany przez ChatGPT. Wprowadziliśmy w nim jedynie drobne zmiany.
Spotkanie i panel dyskusyjny poprowadzi dr Konrad Maj, kierownik Centrum Innowacji Społecznych i Technologicznych HumanTech na Uniwersytecie SWPS.
Prelekcje odbędą się w języku polskim oraz angielskim.Transmisja spotkania będzie tłumaczona symultanicznie. Uczestnikom stacjonarnym zalecamy zabranie ze sobą telefonów oraz słuchawek.
Wydarzenie objęte jest patronatem Strefy Technologii Uniwersytetu SWPS
Przed spotkaniem zachęcamy do zapoznania się z artykułem (w języku angielskim) „ChatGPT: Jack of all trades, master of none”
Zapraszamy na dwujęzyczne wykłady
Żyjemy w czasach postępu technologicznego i dynamicznego rozwoju cyfryzacji. Współczesny pęd do tworzenia nowoczesnych rozwiązań może powodować trudne do przewidzenia skutki psychologiczne i społeczne. Dlatego tak ważne jest nawiązywanie współpracy między inżynierami, programistami, specjalistami IT oraz przedstawicielami nauk społecznych już na wstępnym etapie opracowywania nowej technologii lub usługi. Takie szeroko zakrojone partnerstwo nie tylko daje szansę na uniknięcie błędów, lecz także umożliwia rozwinięcie innowacyjnego pomysłu.
Projekt HumanTech Meetings to seria spotkań skupiających naukowców i specjalistów z branży technologicznej z całego świata. Każde spotkanie składa się z dwóch wykładów, jednego wygłoszonego przez eksperta z Polski i jednego wygłoszonego przez specjalistę z innego kraju. Po wykładach organizujemy dyskusje panelowe, podczas których zaproszeni goście przedstawiają różne podejścia do innowacji i technologii. Spotkania organizowane są przez Centrum Innowacji Społecznych i Technologicznych HumanTech na Uniwersytecie SWPS.
-
Sebastian Krügel: Botom ufamy. Autorytet moralny bota ChatGPT (i nie tylko)
Algorytmy oparte na sztucznej inteligencji są obecne w niemal wszystkich dziedzinach naszego życia, od mobilności, po rekrutację personelu, wyroki karne czy codzienne rozmowy. ChatGPT, opracowany przez firmę OpenAI najnowocześniejszy chatbot oparty na sztucznej inteligencji, robi na użytkownikach duże wrażenie, jawiąc się jako błyskotliwy i wciągający rozmówca, który rozwiązuje egzaminy, pisze wiersze i tworzy kod komputerowy. Potrafi również wyszukiwać informacje, odpowiadać na pytania i udzielać rad. Niestety, czasami podaje fałszywe dane, wymyśla odpowiedzi, jeśli ich nie zna i oferuje porady wątpliwej jakości. Pytanie brzmi, jak pomóc użytkownikom w wykształceniu krytycznego podejścia i ograniczonego zaufania do algorytmów opartych na sztucznej inteligencji. Często jako panaceum proponuje się przejrzystość w stosowaniu algorytmów, jednak w serii eksperymentów stwierdziliśmy, że to za mało, żeby zagwarantować odpowiedzialne korzystanie ze sztucznej inteligencji. Porady botów wpływają na osąd użytkowników nawet wtedy, kiedy zdają sobie oni sprawę z ich dyskusyjnej jakości. Ponadto użytkownicy często nie doceniają siły sugestii wygenerowanych odpowiedzi. Szczególnie to ostatnie odkrycie każe nam się zastanowić czy z chatbotem można wejść w interakcje oparte na zaufaniu. Potrzebujemy kolejnych badań i szerokiej dyskusji na temat tego, jak najlepiej rozwiązać problemy związane z wykorzystaniem sztucznej inteligencji.
-
Przemysław Kazienko: ChatGPT – od dedykowanej sztucznej inteligencji do sztucznej inteligencji ogólnej
Istniejące dotychczas rozwiązania oparte na sztucznej inteligencji były wykorzystywane w konkretnych przypadkach i opierały się zazwyczaj na nadzorowanych lub nienadzorowanych metodach uczenia maszynowego (określa się je mianem wąskiej, słabej lub dedykowanej sztucznej inteligencji). Opracowanie wstępnie wytrenowanych modeli opartych na transformatorach, wzbogaconych o funkcję człowieka w pętli (opierającą się na informacji zwrotnej od człowieka, poprawiającej jakość danych używanych do trenowania modeli), umożliwiło dużym modelom językowym (LLM), takim jak ChatGPT, przejście w kierunku sztucznej inteligencji ogólnej (AGI). Analizy porównawcze wykazały, że najnowocześniejsze modele dedykowanej sztucznej inteligencji wciąż przewyższają modele ogólne, zwłaszcza w kontekście rozwiązywania problemów subiektywnych i pragmatycznych. Podczas prelekcji omówione zostaną wyzwania, które stawiają przed nami nowe możliwości technologiczne oraz ograniczenia bota ChatGPT i AGI, w tym ich główne wady, takie jak uogólnienia i podawanie nieprawdziwych informacji.
Prelegenci
Paneliści
Prawnik, adwokat w kancelarii Pruchniewicz Staniszewski i Wspólnicy. Specjalista z zakresu prawa własności intelektualnej, w szczególności prawa autorskiego, prawa Internetu, prawa własności przemysłowej i prawa prasowego. Ma doświadczenie w prowadzeniu sporów sądowych i postępowań egzekucyjnych. Doradza w zakresie prawa przedsiębiorcom działającym w branży reklamowej i sektorze nowoczesnych technologii. Zajmuje się także obsługą prawną fundacji, stowarzyszeń, organizacji pożytku publicznego.
Psycholog i projektant doświadczeń edukacyjnych. Specjalista z zakresu psychologii edukacji, rozwoju oraz metodologii badań naukowych. Naukowo interesuje się psychologią edukacji oraz psychologią nowych technologii.
Panel dyskusyjny poprowadzi
Psycholog społeczny. Kierownik Centrum Innowacji Społecznych i Technologicznych (HumanTech) na Uniwersytecie SWPS oraz projektu HumanTech Meetings. Naukowo interesuje się zagadnieniami związanymi z psychologią mediów, nowymi technologiami, wpływem społecznym oraz innowacjami. Prowadzi badania w obszarze HRI (Human-Robot-Interaction).
Organizator
Centrum Innowacji Społecznych i Technologicznych HumanTech
Partnerzy
Formularz zgłoszeniowy
Termin i miejsce
12 kwietnia 2023 r. (środa), 17.00–20.00
Uniwersytet SWPS w Warszawie, ul. Chodakowska 19/31, sala: S306 / online
Kontakt
E-mail: Ten adres pocztowy jest chroniony przed spamowaniem. Aby go zobaczyć, konieczne jest włączenie w przeglądarce obsługi JavaScript.
HumanTech Meetings – zadanie finansowane z budżetu Państwa, ze środków Ministerstwa Edukacji i Nauki w ramach konkursu „Społeczna odpowiedzialność nauki – Popularyzacja nauki i promocja sportu” (nr projektu SONP/SN/514650/2021). Projekt przewidziany na lata 2022-2023. Całkowita wartość zadania: 305 472 zł.