/
/
Generatywna AI w nauce. Komentarz ekspercki do wytycznych Komisji Europejskiej

Generatywna AI w nauce. Komentarz ekspercki do wytycznych Komisji Europejskiej

Aktualności|Blog

11.05.2026

Komisja Europejska w dokumencie z dnia 8 maja 2026 r. „Living guidelines on the responsible use of generative AI in research” przedstawiła praktyczne wytyczne dotyczące odpowiedzialnego korzystania z generatywnej sztucznej inteligencji w pracy naukowej.

Raport nie zakazuje używania narzędzi takich jak ChatGPT,-Copilot czy innych systemów generatywnej AI – uznaje jednak, że mogą one realnie wspierać naukowców w codziennej pracy. Jednocześnie jasno wskazuje, że AI nie może zastępować odpowiedzialności badacza, rzetelności metodologicznej ani krytycznego myślenia. Główne przesłanie raportu można podsumować krótko: generatywna AI może być wartościowym asystentem naukowca, ale nie powinna być autorem, recenzentem ani samodzielnym decydentem w procesie badawczym.

W praktyce oznacza to, że każdy badacz korzystający z AI powinien pamiętać o kilku podstawowych zasadach:

  1. AI może pomagać, ale odpowiedzialność zawsze ponosi człowiek
    Generatywna AI może wspierać badacza w redagowaniu tekstu, streszczaniu materiałów, porządkowaniu argumentów, generowaniu pomysłów, pracy z kodem czy wstępnej analizie danych.
    Nie przejmuje jednak odpowiedzialności za wyniki, interpretacje, cytowania ani końcową treść publikacji. Wszystkie odpowiedzi AI powinny być sprawdzone przez człowieka.

    Najważniejszy wniosek: AI jest narzędziem pomocniczym, ale decyzje naukowe i odpowiedzialność pozostają po stronie badacza.
  1. AI nie może być autorem publikacji naukowej
    System AI nie powinien być wskazywany jako autor ani współautor artykułu naukowego. Autorstwo oznacza odpowiedzialność za treść, możliwość obrony wyników, wyjaśnienia metodologii i rozliczalność wobec środowiska naukowego.
    AI nie ma takich możliwości i nie ponosi odpowiedzialności za błędy.

    Najważniejszy wniosek: AI może pomóc w przygotowaniu tekstu, ale nie może być traktowana jak współautor.
  1. Użycie AI trzeba ujawniać, jeśli miało istotny wpływ na badanie
    Nie każde użycie AI wymaga szczegółowego opisu. Prosta korekta językowa lub stylistyczna może być traktowana jak zwykła pomoc redakcyjna.
    Użycie AI warto jednak ujawnić, jeśli narzędzie pomagało w analizie danych, interpretacji wyników, przeglądzie literatury, formułowaniu hipotez, projektowaniu metodologii, tworzeniu kodu lub opracowaniu wniosków.
    W takim przypadku dobrze podać nazwę narzędzia, wersję, cel użycia i etap pracy.

    Najważniejszy wniosek: jeśli AI realnie wpłynęła na badanie, jej użycie powinno być jasno opisane.
  1. Wyniki generowane przez AI muszą być sprawdzane
    AI potrafi tworzyć przekonujące teksty, ale może popełniać błędy. Może generować fałszywe informacje, nieistniejące publikacje, błędne streszczenia, uproszczenia lub stronnicze interpretacje.
    Dlatego badacz powinien weryfikować cytowania, źródła, streszczenia, kod, dane i wnioski wygenerowane przez AI.

    Najważniejszy wniosek: AI może przyspieszać pracę, ale nie zwalnia z obowiązku krytycznej weryfikacji.
  1. Nie należy wprowadzać do AI danych poufnych, osobowych ani nieopublikowanych
    Do publicznych narzędzi AI nie powinno się wklejać danych osobowych, medycznych, wrażliwych, nieopublikowanych wyników, manuskryptów, recenzji, dokumentów grantowych ani materiałów objętych tajemnicą.
    Niektóre narzędzia mogą przechowywać dane lub wykorzystywać je do dalszego trenowania modeli. Może to naruszać poufność, RODO, prawa autorskie lub zasady instytucji.

    Najważniejszy wniosek: do AI nie należy wprowadzać danych, których nie można bezpiecznie upublicznić.
  1. AI nie powinna zastępować recenzenta ani eksperta
    AI nie powinna samodzielnie oceniać artykułów naukowych, wniosków grantowych, dorobku badaczy, projektów ani jakości badań.
    Takie użycie może naruszać poufność, prowadzić do błędnych ocen, powielać uprzedzenia i wpływać na kariery naukowców w sposób nieprzejrzysty.

    Najważniejszy wniosek: recenzja i ocena naukowa wymagają odpowiedzialności eksperta, której AI nie może zapewnić.
  1. Instytucje naukowe powinny tworzyć jasne zasady korzystania z AI
    Uczelnie, instytuty i organizacje badawcze powinny wspierać naukowców w odpowiedzialnym korzystaniu z AI.
    Powinny tworzyć polityki użycia AI, prowadzić szkolenia, wskazywać bezpieczne narzędzia, chronić dane, aktualizować procedury etyczne i promować transparentność.
    Najważniejszy wniosek: instytucje powinny pomagać badaczom korzystać z AI bezpiecznie, świadomie i zgodnie z zasadami.
  1. Grantodawcy też muszą jasno określić zasady AI
    Organizacje finansujące badania powinny wyjaśnić, czy i jak wnioskodawcy mogą korzystać z AI. Powinny też określić, kiedy użycie AI trzeba ujawnić.
    Grantodawcy muszą chronić poufność wniosków i nie powinni używać AI do automatycznej oceny jakości projektów naukowych.

    Najważniejszy wniosek: AI może wspierać procesy grantowe, ale nie powinna decydować o wartości badań.
  1. Ukryte prompty to nowe ryzyko w nauce
    Ukryte prompty to niewidoczne instrukcje, które mogą wpływać na działanie systemu AI analizującego dokument. Mogą znajdować się np. w metadanych, komentarzach, niewidocznym tekście lub załącznikach.
    Ich celem może być manipulowanie oceną dokumentu, np. wniosku grantowego lub publikacji.

    Najważniejszy wniosek: instytucje powinny zabezpieczać procedury przed ukrytymi próbami wpływania na systemy AI.
  1. Odpowiedzialne korzystanie z AI obejmuje także środowisko
    Generatywna AI wymaga dużych zasobów technologicznych, energii i infrastruktury. Dlatego warto używać jej rozsądnie i proporcjonalnie do zadania.
    Nie każda praca wymaga zaawansowanego modelu AI. Czasem wystarczy prostsze narzędzie, lokalny model, klasyczne oprogramowanie, wyszukiwarka naukowa lub analiza ekspercka.

AI staje się ważnym narzędziem wspierającym naukę, jednak korzystanie z niej wymaga stosowania się do konkretnych zasad. Sztuczna inteligencja nie może przejmować odpowiedzialności za wygenerowane treści, decyzje, recenzje ani zostać współautorem pracy. Odpowiedzialne użycie modeli językowych wymaga transparentności, weryfikacji oraz dbałości o ochronę danych osobowych.

Autor wpisu

Udostępnij

Masz jakieś pytania?

Skontaktuj się z nami

Jesteśmy pod telefonem:
Pon-Pt 8:00 - 16:00

Warto przeczytać również