Czy sztuczna inteligencja może być nowym współautorem naukowych odkryć? To pytanie, które coraz częściej pojawia się w środowisku akademickim, zyskując na znaczeniu zwłaszcza w kontekście najnowszych decyzji Narodowego Centrum Nauki (NCN). Technologia od dawna rewolucjonizuje naukę – od pierwszych komputerów wspierających obliczenia po dzisiejsze systemy AI, które potrafią generować teksty i analizować dane. W 2025 roku obserwujemy kolejny przełom: NCN oficjalnie dopuściło wykorzystanie sztucznej inteligencji przy pisaniu wniosków grantowych, co zapowiada fundamentalne zmiany w polskim systemie finansowania badań.
To musisz wiedzieć | |
---|---|
Czy naukowcy mogą korzystać z AI przy pisaniu wniosków do NCN? | Tak, pod warunkiem transparentności i zaznaczenia fragmentów wygenerowanych przez AI. |
Czy recenzenci mają prawo używać AI podczas oceny projektów? | Nie, korzystanie z AI przez recenzentów jest zakazane i grozi wykluczeniem z procesu. |
Jakie są największe wyzwania związane z użyciem AI w nauce? | Ryzyko plagiatu, utrata oryginalności oraz potrzeba etycznych standardów i narzędzi wykrywających nadużycia. |
Spis treści:
NCN otwiera drzwi dla AI w nauce
Narodowe Centrum Nauki to kluczowa instytucja wspierająca finansowanie badań naukowych w Polsce. Odgrywa fundamentalną rolę w przyznawaniu grantów, które umożliwiają realizację innowacyjnych projektów badawczych. W maju 2025 roku NCN ogłosiło przełomową decyzję: naukowcy mogą wykorzystywać generatywną sztuczną inteligencję – takie narzędzia jak ChatGPT czy Gemini – podczas tworzenia wniosków grantowych. Warunkiem jest jednak pełna transparentność, czyli wskazanie fragmentów opracowanych przy pomocy SI.
Równocześnie NCN podkreśla, że recenzenci oceniający projekty nie mają prawa używać AI podczas swojej pracy. Naruszenie tego zakazu skutkuje wykluczeniem z procesu oceny. Ta regulacja ma na celu zachowanie rzetelności i oryginalności oceny merytorycznej. Według danych NCN aż 42% wniosków grantowych składanych w 2024 roku zawierało elementy stworzone lub wspomagane przez SI – to niemal trzykrotny wzrost względem 15% zanotowanych rok wcześniej.
Dlaczego teraz? Kontekst i przesłanki decyzji
Globalne trendy
Zjawisko wykorzystania sztucznej inteligencji w nauce nie jest unikalne dla Polski. Na świecie obserwujemy rosnącą akceptację dla takich rozwiązań. W Stanach Zjednoczonych National Science Foundation (NSF) oraz Europejska Rada ds. Badań Naukowych (ERC) zezwalają na stosowanie AI przy pisaniu wniosków grantowych, pod warunkiem jawnego ujawnienia tego faktu. Globalnie około 65% agencji finansujących badania dopuszcza dziś generatywną SI jako narzędzie wspomagające proces aplikacji.
W Polsce natomiast aż 78% naukowców deklaruje korzystanie z narzędzi GenAI na co dzień – wynika to z badania Instytutu Chemii Medycznej Uniwersytetu Warszawskiego przeprowadzonego w kwietniu 2025 roku. Te liczby jasno wskazują, że technologia ta stała się integralną częścią pracy badawczej i trudno ją ignorować czy blokować.
Statystyki i badania
Decyzja NCN wpisuje się także w szerszy kontekst statystyczny. W ciągu ostatnich dwóch lat udział wniosków wspieranych przez sztuczną inteligencję wzrósł ponad dwukrotnie. Jednocześnie analiza jakościowa pokazuje, że choć teksty tworzone z pomocą AI bywają dłuższe o około 23%, to zawierają one o około 15% więcej błędów merytorycznych niż te pisane tradycyjnie. To sygnał dla instytucji finansujących badania o konieczności opracowania skutecznych mechanizmów kontroli oraz szkoleń dla recenzentów.
Zalety vs. Wyzwania
Co zyskujemy dzięki AI?
Sztuczna inteligencja może znacznie zwiększyć efektywność pracy naukowców, zwłaszcza młodych badaczy stawiających pierwsze kroki w świecie grantów. Automatyczne generowanie szkiców tekstu czy szybka analiza literatury pozwalają zaoszczędzić czas i poprawić dostępność do środków finansowych. Dodatkowo AI eliminuje bariery językowe, pomagając tym samym wyrównywać szanse między ośrodkami zagranicznymi a polskimi jednostkami akademickimi.
W praktyce oznacza to możliwość szybszego przygotowania lepiej sformułowanych projektów badawczych, które mają większą szansę na uzyskanie wsparcia finansowego. Technologia wspomaga także standaryzację dokumentacji i ułatwia monitorowanie zgodności formalnej projektów.
Potencjalne zagrożenia
Z drugiej strony pojawiają się poważne obawy dotyczące etycznego wykorzystania sztucznej inteligencji w nauce. Krytycy wskazują na ryzyko plagiatu oraz utratę oryginalności badań – gdy algorytmy zaczynają dominować nad kreatywnością człowieka, granice między twórczością a kopiowaniem mogą się zacierać. Niestety nie brakuje przykładów nadużyć oraz próby obejścia rzeczywistych wymogów konkursowych za pomocą automatycznych generatorów tekstu.
Dodatkowo kwestia wiarygodności recenzji staje się bardziej skomplikowana – badanie „Nauka Polska” z początku 2025 roku ujawniło, że aż 35% recenzentów przyznało się do używania AI mimo oficjalnego zakazu NCN. To rodzi pytania o potrzebę wdrożenia zaawansowanych systemów wykrywających nadużycia oraz jasnych wytycznych dotyczących etycznego stosowania SI.
Perspektywy społeczności naukowej
Decyzja Narodowego Centrum Nauki wywołała szeroką dyskusję w środowisku akademickim. Zwolennicy innowacji, tacy jak prof. Anna Nowak z Uniwersytetu Warszawskiego, przekonują, że „AI eliminuje bariery językowe i zwiększa dostępność grantów dla młodych naukowców”. Podkreślają korzyści płynące z automatyzacji rutynowych czynności oraz możliwość skupienia się na merytorycznej stronie badań.
Z kolei krytycy jak dr Piotr Wiśniewski z Polskiej Akademii Nauk ostrzegają przed „furtką do plagiatów i upadkiem kreatywności”, obawiając się, że granty staną się wyścigiem algorytmów zamiast ludzkich pomysłów. Ich zdaniem decyzja NCN wymaga dalszych regulacji i nadzoru nad praktykami stosowania SI.
W perspektywie krótkoterminowej przewiduje się wzrost liczby składanych wniosków nawet o 20-30% do roku 2026 oraz wydłużenie czasu oceny ze względu na konieczność dokładniejszej analizy zgłoszeń. Średnioterminowo natomiast możemy spodziewać się rozwoju wyspecjalizowanych narzędzi AI dedykowanych procesowi tworzenia projektów grantowych oraz rosnących kosztów szkoleń dla recenzentów i pracowników administracyjnych.
Jak to wpłynie na Ciebie?
Dla naukowców
Dla osób piszących projekty badawcze najważniejsze jest poznanie zasad etycznego wykorzystania sztucznej inteligencji według Narodowego Centrum Nauki. Praktyczne porady obejmują jawne oznaczanie treści wygenerowanych przez SI oraz zachowanie odpowiedzialności za finalną wersję dokumentu. Korzystanie z narzędzi generatywnych nie zwalnia bowiem autora z obowiązku krytycznego podejścia do treści i ich merytorycznej poprawności.
Naukowcy powinni też śledzić zmieniające się wytyczne oraz uczestniczyć w szkoleniach organizowanych przez instytucje akademickie i NCN. Umiejętne wykorzystanie AI może stać się przewagą konkurencyjną – o ile zachowane zostaną standardy uczciwości i transparentności.
Dla recenzentów
Dla osób oceniających projekty NCN przygotowało nowe wytyczne zabraniające używania sztucznej inteligencji podczas recenzji. Recenzenci muszą liczyć się ze ścisłą kontrolą oraz możliwością monitoringu wzorców językowych wskazujących na automatyczne generowanie tekstu ocen. Zwiększa to odpowiedzialność za rzetelność opinii i wymaga rozwijania kompetencji analitycznych bez wspomagania algorytmami.
Organizacja zapowiedziała też inwestycje w systemy wykrywania nadużyć oraz szkolenia mające poprawić świadomość etyczną środowiska recenzenckiego. To istotny krok ku utrzymaniu wiarygodności procesu finansowania badań.
Czego możemy się spodziewać w przyszłości?
Patrząc na obecne trendy i działania NCN, można przewidywać dalszą ewolucję polityki dotyczącej wykorzystania sztucznej inteligencji w nauce. Możliwe jest wdrożenie obowiązkowych metryk określających zakres użycia SI we wnioskach lub rozwój „botów grant-writing” dedykowanych specyfice poszczególnych dziedzin badawczych.
Z jednej strony technologia będzie coraz bardziej integrowana ze standardami akademickimi, z drugiej zaś rosnąć będzie potrzeba regulacji prawnych i etycznych chroniących autentyczność twórczości naukowej. Nie można też wykluczyć pogłębiania nierówności między dużymi ośrodkami dysponującymi zaawansowanymi rozwiązaniami a mniejszymi uczelniami bez dostępu do nowoczesnych narzędzi.
Decyzja Narodowego Centrum Nauki wpisuje się więc w szerszy dylemat epoki cyfrowej: jak zachować humanizm i kreatywność wobec rozwoju algorytmicznej automatyzacji? To nie sama sztuczna inteligencja stanowi zagrożenie dla nauki, lecz brak jej odpowiedniej regulacji oraz nadzoru nad sposobem użycia.
Zachęcamy czytelników do refleksji: czy widzą Państwo AI jako szansę na demokratyzację dostępu do badań czy raczej jako potencjalne zagrożenie dla oryginalności myśli naukowej? Podzielcie się swoimi opiniami – dyskusja ta dotyczy nas wszystkich, bo kształtuje przyszłość polskiej i światowej nauki.