Artykuł naukowy naszych pracowników pt. „Exploring the Challenges and Potential of Generative AI: Insights from an Empirical Study” został opublikowany w otwartym dostępie. W ramach pracy przeprowadzono eksperyment mający na celu zbadanie, w jakim stopniu treści generowane przez GenAI mogą być uznane za wiarygodne (nie zawierające fałszywych informacji) oraz jak łatwo jest zmanipulować GenAI do produkcji fałszywych informacji.
ChatGPT, narzędzie oparte na modelach generatywnej sztucznej inteligencji (tzw. GenAI), w zadziwiająco krótkim czasie zyskało ogromną popularność – już po tygodniu korzystał z niego milion użytkowników, a po dwóch miesiącach było ich aż 100 milionów. Ta technologia należy do rodziny tzw. dużych modeli językowych (LLM), które dzięki dostępowi do olbrzymich zbiorów danych tekstowych potrafią generować wypowiedzi bardzo przypominające to, w jaki sposób ludzie naturalnie posługują się językiem. Coraz więcej osób zaczyna traktować takie narzędzia jako alternatywę dla tradycyjnych wyszukiwarek internetowych w poszukiwaniu informacji.
Podczas eksperymentu, opisanego w artykule, studenci otrzymali zadanie przygotowania esejów w języku polskim, z zachowaniem określonej długości tekstu oraz wybranej tematyki. Kluczowym elementem była jednak nie tylko sama treść wygenerowana przez narzędzie GenAI, lecz także krytyczna analiza powstałego tekstu. Studenci mieli ocenić wiarygodność przedstawionych informacji, wychwycić i skorygować ewentualne nieścisłości oraz wyłapać przykłady wytworzonych przez model fałszywych informacji (fake newsów). Ponadto, te narzędzia poproszono również o wprowadzenie zupełnie wymyślonych treści, by sprawdzić, czy uczestnicy będą w stanie rozpoznać i zweryfikować nieprawdziwe dane.
Badania te mogą mieć istotne znaczenie w kontekście coraz szerszego wykorzystywania generatywnej sztucznej inteligencji w edukacji, mediach i innych dziedzinach. Ich wyniki pozwalają lepiej zrozumieć możliwości i ograniczenia dużych modeli językowych w zakresie weryfikacji faktów oraz wykrywania nieprawdziwych informacji. Jednym z największych wyzwań jest tzw. „halucynacja” modeli – spontaniczne generowanie błędnych lub wprowadzających w błąd treści, co może prowadzić do niezamierzonych konsekwencji, jeśli nie zostanie zidentyfikowane i skorygowane.
Realizacja tego typu badań ma kluczowe znaczenie dla przyszłego kształtu edukacji informacyjnej oraz bezpieczeństwa informacyjnego. Pozwala nie tylko na pogłębienie wiedzy na temat tego, jak ulepszać i doskonalić narzędzia AI, ale także na opracowanie metod i standardów, które zapewnią użytkownikom możliwość sprawnego rozpoznawania fałszywych informacji. W tym kontekście rozwijanie umiejętności krytycznej analizy treści generowanych przez sztuczną inteligencję jest krokiem w kierunku bardziej świadomego i bezpiecznego korzystania z nowoczesnych technologii.
Autorzy pracy: dr Milena Stróżyna, dr hab. Krzysztof Węcel, prof. UEP, dr Piotr Stolarski, mgr Ewelina Księżniak, mgr Marcin Sawiński, dr Włodzimierz Lewoniewski, prof. dr hab. Witold Abramowicz.
Artykuł naukowy został zaprezentowany podczas konferencji KES 2024. Udział w konferencji był możliwy dzięki dofinansowaniu z konkursu na finansowanie wyjazdów konferencyjnych pn. „IREG – konferencje”. Dofinansowano ze środków Ministra Nauki przyznanych w ramach Programu „Regionalna inicjatywa doskonałości” na realizację projektu „Uniwersytet Ekonomiczny w Poznaniu dla Gospodarki 5.0: Inicjatywa regionalna – efekty globalne (IREG)”.
Katedra Informatyki Ekonomicznej realizuje obecnie projekt badawczy OpenFact, kierowany przez prof. dr. hab. Witolda Abramowicza. W ramach tego projektu opracowywane są narzędzia do automatycznego wykrywania fake news w języku polskim. W lipcu 2024 roku wyniki projektu OpenFact drugi rok z rzędu zostały najwyżej ocenione przez NCBiR.
Projekt OpenFact jest finansowany przez Narodowe Centrum Badań i Rozwoju w ramach programu INFOSTRATEG I „Zaawansowane technologie informacyjne, telekomunikacyjne i mechatroniczne”.