W ramach naszego serwisu www stosujemy pliki cookies zapisywane na urządzeniu użytkownika w celu dostosowania zachowania serwisu do indywidualnych preferencji użytkownika oraz w celach statystycznych.
Użytkownik ma możliwość samodzielnej zmiany ustawień dotyczących cookies w swojej przeglądarce internetowej.
Więcej informacji można znaleźć w Polityce Prywatności
Korzystając ze strony wyrażają Państwo zgodę na używanie plików cookies, zgodnie z ustawieniami przeglądarki.
Akceptuję Politykę prywatności i wykorzystania plików cookies w serwisie.

Nauka

 

Transparentność w publikacjach, grantach, analizach danych
AI jako wsparcie badań, nie zastępstwo
  • Narzędzia sztucznej inteligencji mogą wspierać pracę naukową w zakresie:
    • wyszukiwania i streszczania literatury,
    • tworzenia konspektów artykułów, spisów treści i planów badań,
    • generowania wizualizacji, tabel i wykresów,
    • wspomagania redakcji i korekty językowej tekstu,
    • wstępnej analizy danych i przygotowania danych syntetycznych.
  • AI nie może zastępować krytycznego myślenia, interpretacji wyników ani wniosków autora.
Transparentność i deklaracja użycia
  • Każde znaczące wykorzystanie AI w pracy naukowej, publikacji, raporcie badawczym czy projekcie grantowym musi być jasno zadeklarowane.
  • Deklaracja powinna zawierać:
    • nazwę narzędzia i wersję (lub datę użycia),
    • data użycia,
    • sposób użycia (np. redakcja tekstu, generowanie streszczeń, analiza danych),
    • wskazanie części pracy, w których wykorzystano AI.
  • Deklarację należy umieszczać w odpowiednich miejscach: we wstępie, oświadczeniu
    lub – w przypadku prezentacji – na slajdzie otwierającym i końcowym.
Przykłady dozwolonego użycia AI
  • Przegląd literatury – AI może pomagać w streszczeniach i klasyfikacji tekstów, ale autor ma obowiązek samodzielnie sprawdzić cytaty i źródła.
  • Hipotezy i plan badań – AI może podsuwać propozycje pytań badawczych czy metod, lecz ostateczne decyzje podejmuje badacz, który odpowiada za ich poprawność i trafność naukową.
  • Publikacje naukowe – AI może wspierać redakcję językową, tworzenie konspektów i wizualizacji, ale pełna odpowiedzialność za treść należy do autora.
  • Projekty grantowe – AI może wspomóc strukturę i redakcję tekstów aplikacyjnych, lecz treść merytoryczna musi pochodzić od zespołu badawczego.
  • Dane syntetyczne – w przypadku korzystania z danych wygenerowanych przez AI należy to wyraźnie zaznaczyć i oddzielić od danych rzeczywistych.
Granice i obowiązki
  • Streszczenia ogólne materiałów dydaktycznych mogą być wykonywane z pomocą AI bez obowiązku deklaracji, ale gdy AI jest używane do streszczenia wniosków, metodologii lub kluczowych danych – deklaracja jest wymagana.
  • Korekta językowa drobnych fragmentów nie wymaga deklaracji, ale jeśli AI znacząco wpływa na styl lub treść – należy ją wskazać.
  • Autor ma obowiązek przechowywania zapisów interakcji z narzędziem (promptów i wyników) w przypadku, gdy AI odegrało istotną rolę w przygotowaniu pracy.
Ryzyka i ograniczenia
  • Treści generowane przez AI mogą zawierać błędy, nieaktualne dane lub być „zmyślone” – zawsze muszą być zweryfikowane przez autora.
  • Należy zwracać uwagę na prawa autorskie – AI nie zwalnia z obowiązku przestrzegania regulacji prawnych i licencyjnych.
Odpowiedzialność badacza
  • Autor publikacji, raportu czy projektu ponosi pełną odpowiedzialność za treść – niezależnie od stopnia wsparcia AI.
  • Ukrywanie użycia AI jest naruszeniem zasad uczciwości naukowej.
  • Interpretacja wyników, formułowanie wniosków i decyzje badawcze zawsze należą do człowieka.