Wydawnictwo Akademii Leona Koźmińskiego - Polityka wobec AI
Polityka publikacyjna ALK dotycząca wykorzystania narzędzi sztucznej inteligencji
Rozwój generatywnej sztucznej inteligencji (GSI) stawia przed środowiskiem naukowym nowe wyzwania w obszarze rzetelności badań oraz etyki publikacyjnej. W trosce o utrzymanie najwyższych standardów naukowych Akademia Leona Koźmińskiego wprowadza zasady określające dopuszczalne formy korzystania z narzędzi GSI na wszystkich etapach przygotowania, redagowania, recenzowania i publikowania tekstów naukowych.
Poniższe wytyczne obowiązują autorów oraz recenzentów publikacji wydawanych w Akademii Leona Koźmińskiego.
Zasady obowiązujące autorów
- Autorem tekstu naukowego może być wyłącznie człowiek. Narzędzia GSI, w tym chatboty (np. ChatGPT), nie mogą być uznawane za autorów lub współautorów ani cytowane jako autorzy.
- Autor ponosi pełną odpowiedzialność za treść manuskryptu, w tym za wszystkie fragmenty powstałe przy wykorzystaniu narzędzi GSI. Odpowiada również za ewentualne naruszenia zasad etyki publikacyjnej.
- Korzystanie z narzędzi GSI musi zostać ujawnione w sposób pełny i transparentny. Autor powinien wskazać, z jakiego narzędzia korzystał, w jaki sposób oraz w jakim zakresie, a także opisać, jaki wpływ miało ono na powstanie pracy.
- Przy zgłoszeniu manuskryptu autor jest zobowiązany do złożenia oświadczenia dotyczącego wykorzystania narzędzi GSI (w tym chatbotów, dużych modeli językowych czy generatorów obrazu). Oświadczenie powinno zawierać szczegółowy opis celu, zakresu i sposobu ich użycia.
- Autorzy powinni mieć świadomość ograniczeń narzędzi GSI, takich jak stronniczość, możliwość generowania błędów czy luk w wiedzy. Każdorazowo należy rzetelnie weryfikować wygenerowane treści, zwracając szczególną uwagę na ryzyko wystąpienia nieścisłości, fałszerstw lub halucynacji.
Zasady obowiązujące recenzentów
- Recenzenci nie powinni korzystać z narzędzi GSI w procesie przygotowywania recenzji.
- Recenzenci oceniają zasadność wykorzystania narzędzi GSI przez autorów, biorąc pod uwagę przejrzystość ich ujawnienia oraz wpływ na jakość pracy.
- Recenzenci muszą pamiętać o ryzyku naruszenia poufności. Chatboty i inne narzędzia GSI mogą przechowywać i ujawniać przekazane im dane, dlatego wprowadzanie do nich treści manuskryptu lub recenzji jest niedopuszczalne.
Wytyczne opracowano na podstawie:
- Rekomendacji Stowarzyszenia Wydawców Szkół Wyższych,
- COPE: Authorship and AI tools. COPE position statement,
- COPE Forum: How to exclude AI-generated articles.