FAQ

Otwarta Nauka
Czym dokładnie jest Otwarta Nauka i jakie są jej główne filary?

Otwarta Nauka to podejście do procesu naukowego oparte na współpracy i rozpowszechnianiu wiedzy przy użyciu technologii cyfrowych. Nie ogranicza się tylko do czytania artykułów za darmo. Jej główne filary to:

  • Open Access: Darmowy dostęp do publikacji naukowych.
  • Open Data: Udostępnianie danych badawczych (zgodnie z FAIR).
  • Open Source: Publikowanie kodu programistycznego użytego w badaniach.
  • Open Methodology: Opisywanie całego procesu badawczego, by inni mogli go powtórzyć.
  • Citizen Science: Angażowanie społeczeństwa (amatorów, wolontariuszy) w zbieranie i analizę danych.

Od 2021 roku większość instytucji finansujących w Europie (tzw. cOAlition S) wymaga natychmiastowego otwartego dostępu do wszystkich publikacji wynikających z ich grantów.

To dwa najpopularniejsze modele publikowania artykułów:

  • Złota droga (Gold Open Access): Artykuł jest natychmiast dostępny za darmo na stronie wydawcy. Często wiąże się to z opłatą APC (Article Processing Charge) ponoszoną przez autora lub jego instytucję.
  • Zielona droga (Green Open Access/Self-archiving): Autor publikuje artykuł w tradycyjnym czasopiśmie (za subskrypcją), ale jednocześnie umieszcza kopię (np. wersję po recenzji, tzw. postprint) w otwartym repozytorium instytucjonalnym. Często obowiązuje tu okres karencji (embargo) nałożony przez wydawcę.

Otwarta Nauka (Open Science), w tym otwarty dostęp (Open Access) do publikacji i danych badawczych, co do zasady nie zagraża prawom autorskim, lecz zmienia model ich wykorzystywania – z modelu „wszystkie prawa zastrzeżone” na „pewne prawa zastrzeżone”. W rzeczywistości otwarta nauka opiera się na prawie autorskim, wykorzystując je do legalnego udostępniania wiedzy.

Pojawiające się obawy wynikają zazwyczaj z nieporozumień co do zakresu ochrony prawa autorskiego oraz różnic między ochroną twórczości a ochroną pomysłów/danych.

Oto szczegółowa analiza tego zagadnienia:

  1. Otwarta Nauka a Prawo Autorskie (Copyright)

Otwarta Nauka nie znosi prawa autorskiego. Twórca (naukowiec) nadal zachowuje autorskie prawa osobiste (prawo do autorstwa) oraz majątkowe.

  • Wolne licencje jako narzędzie: Ruch otwartej nauki korzysta z narzędzi prawnych, takich jak licencje Creative Commons (CC). Autor decyduje, jak inni mogą korzystać z jego pracy (np. czy zezwala na komercyjne użycie, czy wymaga uznania autorstwa).
  • Zmiana paradygmatu: Zamiast przekazywać majątkowe prawa autorskie wydawcy na wyłączność, naukowiec publikuje w modelu Open Access, zachowując prawa dla siebie i udzielając publicznej licencji na korzystanie z utworu.
  • Ochrona przed plagiatem: Otwarty dostęp ułatwia wykrywanie plagiatów, ponieważ praca jest powszechnie dostępna i łatwa do zweryfikowania.
  1. Otwarta Nauka a Własność Intelektualna (IP)

Własność intelektualna to szersze pojęcie, obejmujące zarówno prawa autorskie, jak i prawa własności przemysłowej (patenty, znaki towarowe).

  • Dane badawcze (Research Data): Co do zasady, surowe dane badawcze, fakty, idee i metody nie są chronione prawem autorskim. Otwarta nauka promuje udostępnianie tych danych, co nie narusza praw, bo one na nich nie przysługują.
  • Komercjalizacja a otwartość: Największym wyzwaniem jest komercjalizacja. Otwarta nauka promuje szybkie dzielenie się wynikami, co może kolidować z wymogiem nowości (novelty) przy ubieganiu się o patent.
  • Rozwiązanie: „Tak otwarte, jak to możliwe, tak zamknięte, jak to konieczne”: W przypadku projektów z potencjałem komercyjnym, procedura powinna wyglądać następująco: najpierw zgłoszenie patentowe (ochrona IP), a dopiero potem publikacja otwarta.
  1. Ryzyka i kontrowersje

Mimo że idea jest bezpieczna, w praktyce występują pewne wyzwania:

  • Niewłaściwe licencjonowanie: Użycie zbyt liberalnej licencji (np. CC0 lub CC-BY) może uniemożliwić przyszłą komercjalizację przez uniwersytet.
  • Wykorzystanie przez AI: Treści naukowe udostępniane w modelu otwartym mogą być maszynowo przetwarzane (text and data mining) przez sztuczną inteligencję, co rodzi pytania o komercyjne wykorzystanie tych danych bez korzyści dla autorów.
  • Brak wiedzy: Naukowcy często nie znają swoich praw i błędnie uważają, że publikacja w otwartym dostępie oznacza „zrzeczenie się” praw autorskich.

Podsumowanie

Otwarta Nauka nie niszczy ochrony własności intelektualnej, lecz wymusza jej mądrzejsze zarządzanie. Zamiast monopolu na wiedzę, promuje ona jej upowszechnianie przy zachowaniu autorstwa. Wymaga to jednak od naukowców większej świadomości prawnej i umiejętnego doboru licencji.

Nauka boryka się z problemem, w którym wielu wyników badań nie udaje się powtórzyć. Otwarta Nauka rozwiązuje to poprzez radykalną przejrzystość. Gdy badacz udostępnia nie tylko końcowy wniosek, ale też surowe dane, skrypty analityczne i szczegółowy protokół, inni naukowcy mogą dokładnie sprawdzić każdy krok. Eliminuje to zjawiska takie jak „p-hacking” (manipulowanie danymi dla wyniku istotnego statystycznie) i pozwala na szybsze wyłapywanie błędów.

P-hacking – manipulacja statystyczna

  1. Definicja i istota problemu

P-hacking (znany również jako „data dredging„, „significance chasing” lub „fishing for data„) to nieetyczna praktyka badawcza, polegająca na manipulowaniu danymi, metodami lub testami statystycznymi w taki sposób, aby uzyskać istotne statystycznie wyniki (zazwyczaj p < 0,05).

Istotą problemu jest fakt, że p-hacking „produkuje” fałszywie pozytywne wyniki (błędy I rodzaju), sprawiając, że hipoteza, która w rzeczywistości jest fałszywa, wydaje się potwierdzona empirycznie.

  1. Najczęstsze techniki p-hackingu

Badacze dopuszczający się p-hackingu stosują różne metody, często nieświadomie pod presją publikacji („publish or perish„). Do najczęstszych należą:

  • Selektywne raportowanie danych (Cherry-picking): Analizowanie wielu zmiennych, ale raportowanie tylko tych, które wykazały istotność statystyczną.
  • Zmiana wielkości próby (n-hacking): Przeprowadzanie testów na małej grupie, a następnie dodawanie kolejnych obserwacji tylko do momentu, gdy p < 0,05.
  • Wielokrotne testowanie: Wykonywanie ogromnej liczby testów dla różnych kombinacji grup badawczych, co drastycznie zwiększa szansę na znalezienie wyniku istotnego czystym przypadkiem.
  • Usuwanie obserwacji odstających (outliers): Eliminowanie danych, które nie pasują do hipotezy, bez merytorycznego uzasadnienia.
  • Manipulacja zmiennymi: Przekształcanie danych (np. logarytmowanie) lub zmiana zmiennych zależnych w trakcie analizy, by poprawić wynik.
  1. Różnica: Rzetelna analiza a P-hacking
  • Rzetelna nauka: Hipoteza jest stawiana przed analizą danych. Metodologia jest ustalana z góry. Wszystkie wyniki (nawet te nieistotne) są raportowane.
  • P-hacking: Dane są zbierane, a hipotezy dostosowywane po analizie („post-hoc„), aby pasowały do wyników.
  1. Wpływ na naukę (Kryzys replikacji)

P-hacking jest jednym z głównych powodów tzw. kryzysu replikacji. Wiele opublikowanych badań, które wykazały „przełomowe” wyniki, nie może zostać powtórzonych przez innych naukowców. Prowadzi to do:

  • Marnowania zasobów finansowych i czasu na badania oparte na fałszywych przesłankach.
  • Utraty zaufania publicznego do nauki.
  • Błędnych decyzji w medycynie, polityce społecznej czy ekonomii.
  1. Jak zapobiegać p-hackingowi?

Aby ograniczyć zjawisko p-hackingu, środowisko naukowe wprowadza coraz więcej rygorystycznych standardów:

  • Prerejestracja badań (Pre-registration): Rejestrowanie planu badania, hipotez i metod analizy w publicznej bazie danych przed zebraniem danych.
  • Raportowanie wyników negatywnych: Publikowanie badań, które nie wykazały istotności (tzw. „null results”).
  • Analiza siły testu (Power analysis): Określanie wielkości próby z góry, aby uniknąć manipulacji wielkością grupy.
  • Otwarte dane (Open Data): Udostępnianie surowych danych, aby inni badacze mogli zweryfikować obliczenia.

P-hacking to zniekształcanie prawdy naukowej poprzez statystyczne „czarowanie”. Jest to zjawisko, które choć pozwala na szybki sukces publikacyjny, ostatecznie szkodzi fundamentom rzetelnego poznania.

Otwarta Nauka ma ogromny wpływ na społeczeństwo:

  • Medycyna: Lekarze i pacjenci mają dostęp do najnowszych wyników badań klinicznych bez płacenia za drogie subskrypcje.
  • Gospodarka: Małe i średnie firmy mogą korzystać z innowacji wypracowanych na uczelniach, co napędza lokalny rozwój.
  • Edukacja: Studenci i nauczyciele z krajów rozwijających się mają te same materiały, co badacze z prestiżowych uczelni (np. MIT czy Oxford).
  • Walka z dezinformacją: Publiczny dostęp do źródeł pozwala weryfikować sensacyjne doniesienia medialne bezpośrednio u źródła naukowego.

 

Co oznacza akronim FAIR?

FAIR to akronim czterech głównych zasad, które dane badawcze muszą spełniać, aby wspierać otwartą naukę:

  • F – Findable (Znajdowalne): Dane muszą być łatwe do odnalezienia przez ludzi i komputery.
  • A – Accessible (Dostępne): Po znalezieniu, użytkownik musi wiedzieć, jak uzyskać dostęp do danych (z uwzględnieniem ograniczeń).
  • I – Interoperable (Interoperacyjne): Dane muszą nadawać się do integracji z innymi danymi i być czytelne dla maszyn.
  • R – Reusable (Ponownie używalne): Dane muszą być dobrze opisane, aby można je było wykorzystać w nowych badaniach.

 

Rosnąca ilość i złożoność danych badawczych sprawia, że ich ręczne przetwarzanie jest niemożliwe. Zasady FAIR kładą szczególny nacisk na „maszynową wykrywalność” (machine-actionability). Oznacza to, że komputery potrafią automatycznie wyszukiwać, uzyskiwać dostęp, analizować i integrować dane z minimalnym udziałem człowieka. Zwiększa to wydajność pracy badaczy, pozwala unikać powielania tych samych badań i przyspiesza odkrycia naukowe.

Dane są znajdowalne, gdy są opatrzone bogatymi metadanymi oraz unikalnym, trwałym identyfikatorem (np. DOI – Digital Object Identifier). W procesie tym kluczowe jest zarejestrowanie danych w indeksowanych repozytoriach. Metadane powinny zawierać informacje o autorach, tytule, instytucji oraz sposobie uzyskania dostępu. Nawet jeśli dane zostaną usunięte, ich metadane powinny pozostać dostępne, aby użytkownik wiedział, że kiedyś istniały.

Nie. Istnieje różnica między danymi otwartymi (Open Data) a danymi FAIR. „Accessible” nie oznacza automatycznie „publicznie dostępny dla każdego”. Zasady FAIR mówią, że dostęp do danych powinien być jasno określony (np. dostęp za logowaniem, dostęp po zgodzie autora), jeśli dane są wrażliwe lub objęte tajemnicą handlową. Nadrzędną zasadą jest etyka i bezpieczeństwo (np. RODO), a dostępność oznacza, że jasne są procedury autoryzacji.

Interoperacyjność oznacza, że dane są czytelne i kompatybilne z innymi systemami i aplikacjami. Wymaga to użycia sformalizowanych, wspólnych języków reprezentacji wiedzy (np. formaty RDF, JSON-LD) oraz słowników kontrolowanych lub ontologii, które są szeroko akceptowane w danej dyscyplinie. Dzięki temu dane z biologii łatwo połączyć z danymi z chemii w jednym komputerowym modelu.

Aby dane były użyteczne ponownie, muszą być bogato opisane (tzw. rich metadata). Muszą zawierać:

  • Dokładne informacje o tym, jak dane zostały wytworzone (metodologia).
  • Informacje o pochodzeniu danych (tzw. proweniencja).
  • Jasną licencję określającą, jak można dane wykorzystać (np. Creative Commons).
  • Standardy społecznościowe – czyli opis zgodny z tym, co jest standardem w danej dziedzinie nauki.

 

Repozytoria danych badawczych są kluczowe, ponieważ zapewniają techniczną infrastrukturę do spełnienia zasad FAIR. Profesjonalne repozytoria automatycznie przypisują trwałe identyfikatory (DOI), przechowują metadane w czytelnym formacie i zapewniają dostępność danych przez długi czas. W Polsce przykładami takich miejsc są repozytoria instytucjonalne lub dziedzinowe.

Proces ten nazywany jest „FAIRification”. Należy zacząć od stworzenia Planu Zarządzania Danymi (DMP – Data Management Plan), który uwzględnia zasady FAIR. Następnie należy wybrać odpowiednie repozytorium, zadbać o formaty plików (otwarte, a nie zamknięte formaty firmowe) i opisać dane za pomocą odpowiednich metadanych (tzw. metadane dziedzinowe).

Zasady FAIR pierwotnie sformułowano dla danych badawczych, ale obecnie odnosi się je również do oprogramowania (tzw. FAIR Software), algorytmów oraz metadanych. Oznacza to, że kod użyty do analizy danych powinien być tak samo znajdowalny, opisany i reużywalny, jak same dane, aby badania były w pełni odtwarzalne.

Zasady FAIR stają się standardem wymaganym przez instytucje finansujące badania, takie jak Narodowe Centrum Nauki (NCN) w Polsce oraz Komisja Europejska (programy Horyzont Europa). Wnioskodawcy muszą wykazać, że dane wytworzone w ramach projektu będą zarządzane zgodnie z zasadami FAIR.

Lista kontrolna dokumentacji metadanych
  1. Podstawowe informacje (Identyfikacja)
    • Tytuł: Czy nazwa zestawu danych jest unikalna i opisowa?
    • Autorzy: Czy wymieniono wszystkich twórców wraz z ich numerami ORCID?
    • Data: Czy określono datę powstania danych oraz datę ich publikacji?
    • Identyfikator: Czy zestaw danych posiada (lub będzie posiadał) stały numer DOI?
    • Instytucja: Czy wskazano jednostkę naukową finansującą lub prowadzącą badania?
  2. Opis zawartości (Kontekst)
    • Abstrakt: Czy krótko wyjaśniono cel zebrania tych konkretnych danych?
    • Słowa kluczowe: Czy użyto terminów z kontrolowanych słowników (np. MeSH, AGROVOC)?
    • Metodologia: Czy opisano proces zbierania danych, użyte instrumenty i oprogramowanie (wraz z wersjami)?
    • Język: Czy określono język, w którym sporządzono dokumentację?
  3. Struktura i format (Techniczne)
    • Spis plików: Czy dołączono listę wszystkich plików wchodzących w skład zestawu?
    • Formaty: Czy dane są w formatach otwartych/niezależnych (np. .csv zamiast .xlsx)?
    • Słownik zmiennych (Codebook): Czy każda kolumna w tabeli ma wyjaśnione znaczenie i jednostki miary?
    • Wartości brakujące: Czy określono, jak oznaczone są braki w danych (np. „NA”, „999”)?
  4. Kwestie prawne i dostęp (Reusable)
    • Licencja: Czy jasno określono warunki ponownego użycia (np. CC-BY 4.0)?
    • Prawa dostępu: Czy podano informację, czy dane są publiczne, czy wymagają autoryzacji?
    • Cytowanie: Czy zamieszczono gotowy format cytowania Twoich danych?

Najlepiej przygotować dokumentację na dwóch poziomach:

  • Plik README.txt: Prosty plik tekstowy umieszczony w głównym folderze z danymi (dla ludzi).
  • Metadane w repozytorium: Pola wypełniane w formularzu online podczas wgrywania danych (dla maszyn/wyszukiwarek).

Kluczowa wskazówka: Zawsze dołączaj plik README w formacie .txt lub .md. Jest on czytelny na każdym systemie operacyjnym i przetrwa dziesięciolecia.

Uniwersalny szablon pliku README.txt (lub README.md), przygotowany zgodnie z najlepszymi praktykami FAIR. Możesz go skopiować, wkleić do notatnika i uzupełnić swoimi danymi.

Kilka wskazówek przed publikacją:

  • Format: Zapisz plik jako README.txt lub README.md.
  • Język: Jeśli publikujesz w repozytorium międzynarodowym (np. Zenodo), najlepiej wypełnij szablon po angielsku.
  • Wersjonowanie: Jeśli zmienisz coś w danych, dodaj sekcję „Wersja 2.0” i krótko opisz zmiany.

 

				
					# TYTUŁ ZESTAWU DANYCH
(np. Wyniki pomiarów stężenia pyłów zawieszonych w aglomeracji śląskiej 2024-2025)

## 1. INFORMACJE OGÓLNE
* Autorzy: [Imię Nazwisko, ORCID; Imię Nazwisko, ORCID]
* Instytucja: [Nazwa Uczelni / Instytutu]
* Kontakt: [Adres e-mail lub link do profilu naukowego]
* Data powstania danych: [RRRR-MM-DD – RRRR-MM-DD]
* Lokalizacja geograficzna: [np. Sosnowiec, Polska]
* Finansowanie: [np. NCN, nr projektu: 202X/XX/X/XXX/XXXXX]

## 2. INFORMACJE O DOSTĘPIE
* Licencja: [np. Creative Commons Attribution 4.0 International (CC BY 4.0)]
* Zalecany sposób cytowania: [Autorzy (Rok). Tytuł. Repozytorium. DOI]
* Link do danych: [Wklej DOI, jeśli już masz]

## 3. METODOLOGIA
* Cel badania: [Krótki opis, co badano i dlaczego]
* Opis zbierania danych: [Metody, procedury, urządzenia]
* Użyte oprogramowanie: [Nazwa softu, wersja, system operacyjny]
* Przetwarzanie danych: [Opis kroków od danych surowych do przetworzonych]

## 4. STRUKTURA PLIKÓW
* [nazwa_pliku_1.csv]: Krótki opis zawartości (np. dane surowe z czujnika A)
* [nazwa_pliku_2.csv]: Dane przetworzone, uśrednione miesięcznie
* [skrypt_analizy.R]: Kod użyty do wygenerowania wykresów

## 5. SŁOWNIK DANYCH (CODEBOOK)
(Opisz każdą kolumnę w Twoich plikach .csv)
* [Nazwa_kolumny_A]: Opis, jednostka miary (np. Temperatura, stopnie Celsjusza)
* [Nazwa_kolumny_B]: Typ danych (np. liczbowy, tekstowy, data)
* Oznaczenie brakujących danych: [np. „NA”, „-999” lub puste pole]

## 6. INFORMACJE DODATKOWE
* Publikacje powiązane: [Link do artykułu, który opisuje te badania]
* Uwagi: [Wszelkie specyficzne informacje potrzebne do zrozumienia danych]

				
			
Repozytoria Multidyscyplinarne (Dla wszystkich)

Jeśli Twoja dziedzina nie ma dedykowanego miejsca, te serwisy są najlepszym wyborem:

  • Zenodo: Prowadzone przez CERN; idealne na dane, kod i prezentacje.
  • Figshare: Komercyjne, ale bardzo popularne; świetne do wizualizacji i zestawów danych.
  • Dryad: Skupione na danych powiązanych z publikacjami naukowymi (wymaga wysokiej jakości metadanych).

 

  • GenBank / NCBI: Standard dla sekwencji nukleotydów.
  • Protein Data Bank (PDB): Repozytorium struktur 3D białek i kwasów nukleinowych.
  • ClinicalTrials.gov: Kluczowe dla rejestracji i wyników badań klinicznych.
  • ELIXIR: Europejska infrastruktura dla danych biologicznych.
  • ICPSR: Jedno z największych archiwów danych społecznych na świecie.
  • CESSDA: Konsorcjum europejskich archiwów danych społecznych.
  • CLARIN / DARIAH: Infrastruktury dedykowane cyfrowej humanistyce i analizie języka.
  • Pangaea: Specjalistyczne repozytorium dla nauk o Ziemi i środowisku.
  • HEPData: Repozytorium danych z fizyki wysokich energii.
  • Materials Project: Otwarte dane na temat właściwości materiałów.
  • GitHub / Zenodo: Standardowe połączenie do archiwizacji kodu źródłowego (skryptów analizy).
  •  
  • Repozytorium Otwartych Danych (RepOD): Prowadzone przez ICM UW (część platformy biblioteki nauki).
  • Most Wiedzy: Platforma Politechniki Gdańskiej (otwarta dla wielu instytucji).
  • AZON: Atlas Zasobów Otwartej Nauki (skupiony na zasobach dolnośląskich uczelni).

Jeśli powyższa lista nie pokrywa Twoich potrzeb, skorzystaj z globalnej wyszukiwarki:

  • re3data.org: Największy katalog repozytoriów danych z filtrami według dyscypliny i kraju.
Czym dokładnie jest DMP i kiedy należy go przygotować?

Plan Zarządzania Danymi (ang. Data Management PlanDMP) to dokument opisujący, co stanie się z danymi badawczymi w trakcie projektu oraz po jego zakończeniu. Obecnie jest on wymagany przez większość agencji finansujących badania (np. NCN, KE).

DMP to formalny dokument określający cykl życia danych w projekcie. Powinien powstać na samym początku, przed zebraniem pierwszych danych. Opisuje on:

  • Jakie dane zostaną wytworzone lub zebrane.
  • Jakie standardy i metodologie zostaną zastosowane.
  • Jak dane będą zabezpieczane w trakcie prac.
  • Gdzie zostaną zarchiwizowane po zakończeniu grantu.
    Większość instytucji (jak NCN) wymaga wstępnego DMP już na etapie składania wniosku o finansowanie.

Dobry DMP musi być konkretny i techniczny. Standardowy szablon (np. wg wytycznych Science Europe) zawiera:

  • Gromadzenie danych: Typy plików (np. .csv, .tiff), szacowana objętość (GB/TB).
  • Dokumentacja i metadane: Jak dane zostaną opisane (np. standard Dublin Core, plik README).
  • Etyka i poufność: Jak chronione będą dane osobowe (zgodność z RODO) lub dane wrażliwe.
  • Przechowywanie: Harmonogram kopii zapasowych i bezpieczeństwo serwerów.
  • Udostępnianie: Wybór repozytorium i licencji (np. CC BY 4.0).

 

DMP postrzega się jako dokument „żywy”, ponieważ badania naukowe są nieprzewidywalne. W trakcie projektu mogą zmienić się formaty danych, ich objętość lub skład zespołu.

  • Plan należy aktualizować co najmniej trzy razy: przy składaniu wniosku, w trakcie trwania projektu oraz przy raporcie końcowym.
  • Każda istotna zmiana w zarządzaniu danymi powinna zostać odnotowana w DMP, aby dokument odzwierciedlał rzeczywisty stan prac.

 

Najczęstsze błędy, które mogą obniżyć ocenę wniosku grantowego, to:
  • Zbyt ogólne sformułowania: Np. „Dane zostaną zapisane na dysku twardym” (brak opisu bezpieczeństwa i kopii zapasowych).
  • Brak konkretnego repozytorium: Deklaracja „udostępnię dane w Internecie” zamiast wskazania konkretnego miejsca (np. Zenodo, RepOD).
  • Niezgodność z FAIR: Ignorowanie zasad interoperacyjności (np. używanie wyłącznie zamkniętych, płatnych formatów plików).
  • Brak kosztorysu: Zapominanie, że archiwizacja dużych zbiorów danych może generować koszty, które należy wpisać w budżet grantu.
Nie trzeba pisać DMP od zera w edytorze tekstu. Istnieją dedykowane narzędzia online, które prowadzą badacza „za rękę”:
  • DMPonline: Najpopularniejsze narzędzie w Europie, zawierające szablony największych fundatorów (np. Komisji Europejskiej).
  • DMP Tool: Amerykański odpowiednik, bardzo intuicyjny.
  • ARGOS: Narzędzie zintegrowane z OpenAIRE, ułatwiające łączenie DMP z innymi wynikami badań.

Narzędzia te oferują gotowe podpowiedzi i przykłady odpowiedzi, co znacząco przyspiesza proces pisania.

Czym charakteryzują się drapieżne czasopisma?

Czasopisma drapieżne (ang. predatory journals) to nieuczciwe wydawnictwa, które wyzyskują model „Open Access” dla zysku, nie dbając o jakość naukową publikowanych prac.

Ich głównym celem jest pobranie opłaty od autora (APC), a nie upowszechnianie rzetelnej wiedzy.

  • Brak rzetelnej recenzji: Publikują niemal wszystko, co zostanie wysłane, często w ciągu kilku dni.
  • Agresywny marketing: Masowo wysyłają spamerskie e-maile z „zaproszeniem” do publikacji, często komplementując dorobek naukowca.
  • Kłamanie o prestiżu: Podają fałszywe wskaźniki (np. Global Impact Factor) lub podszywają się pod znane tytuły.
  • Ukryte opłaty: Informacja o kosztach pojawia się dopiero po zaakceptowaniu tekstu, gdy autor nie może się już wycofać.
  1. Skorzystaj z „Think. Check. Submit.”
    To międzynarodowa kampania pomagająca naukowcom. Zanim wyślesz tekst, zadaj sobie pytania:
    • Czy Ty lub Twoi koledzy znacie to czasopismo?
    • Czy łatwo można znaleźć i skontaktować się z wydawcą?
    • Czy proces recenzji jest jasno opisany?
  1. Sprawdź obecność w bazach (Whitelists)
    Jeśli czasopisma nie ma w poniższych bazach, zachowaj najwyższą ostrożność:
    • DOAJ (Directory of Open Access Journals): Najważniejszy katalog rzetelnych czasopism otwartych.
    • Web of Science / Scopus: Renomowane bazy indeksujące.
    • Lista ministerialna (KEN): W Polsce warto sprawdzić, czy czasopismo znajduje się w aktualnym wykazie MEiN.
  1. Zweryfikuj Radę Naukową (Editorial Board)
    Czasopisma drapieżne często wpisują nazwiska znanych profesorów bez ich wiedzy. Sprawdź na stronach uczelni tych osób, czy faktycznie przyznają się do współpracy z danym tytułem.
  2. Uważaj na „puste” obietnice
    Prawdziwy proces recenzji (peer-review) trwa zazwyczaj od kilku tygodni do kilku miesięcy. Jeśli czasopismo obiecuje publikację w 48 godzin – to niemal na pewno oszustwo.
Jeśli masz wątpliwość co do konkretnego tytułu, sprawdź portal JournalCheckersTool.org – pozwala on zweryfikować, czy czasopismo jest zgodne z wymaganiami Twojego grantodawcy (np. NCN czy Horizon Europe).
 
  • Strata pieniędzy: Opłaty są często bardzo wysokie.
  • Plama na życiorysie: Publikacja w takim miejscu obniża wiarygodność naukowca.
  • Brak punktacji: Takie prace często nie liczą się do dorobku przy awansach czy grantach.
  • Uwięzienie badań: Trudno wycofać tekst z takiego wydawnictwa, by opublikować go gdzie indziej (możesz stracić prawa do własnego odkrycia).