FAQ

FAIR Data Rules
What does the acronym FAIR stand for?
FAIR represents four foundational pillars of modern data management:
  • F – Findable: Data and metadata must be easy to find for both humans and computers.
  • A – Accessible: Once found, users need to know how the data can be accessed, including authentication steps.
  • I – Interoperable: Data must be able to integrate with other datasets and workflows using common languages.
  • R – Reusable: Data must be well-described so it can be replicated or combined in new research.

The sheer volume of global research data makes manual processing impossible. FAIR principles emphasize “machine-actionability”—the ability of computer systems to find, access, and analyze data with minimal human intervention. This increases research efficiency, prevents the “reinvention of the wheel,” and accelerates discovery across different disciplines.

To be findable, data must be assigned a Persistent Identifier (PID), such as a DOI. It must also be described with “rich metadata”—detailed information about authors, dates, and keywords. Finally, this metadata should be registered or indexed in a searchable resource, like a public data repository or a library catalog.

No. There is a common misconception that FAIR equals “Open Data.” The “Accessible” principle states that the process of accessing data must be clear. Data can be FAIR even if it is highly sensitive (e.g., medical records), provided the metadata explains who can access it and how (e.g., “available upon request to verified researchers”). The rule is: “as open as possible, as closed as necessary.”

Interoperability ensures that datasets can “talk” to each other. This requires using:
  • Standardized formats: Using non-proprietary formats (like CSV or JSON instead of Excel).
  • Controlled vocabularies: Using shared sets of terms (ontologies) so that “blood pressure” in one study means the same thing in another.
  • Cross-references: Linking to other relevant data through identifiers.
For data to be truly reusable, it needs a high level of context, including:
  • Provenance: A clear “paper trail” showing where the data came from and how it was processed.
  • Usage Licenses: A clear legal statement (like Creative Commons) explaining what others are allowed to do with the data.
  • Community Standards: Compliance with specific formatting rules common in that particular field of study.

Repositories are the “home” for data and are vital for FAIR compliance. A professional repository (like Zenodo, Figshare, or a university archive) automatically generates DOIs, ensures metadata is machine-readable, and guarantees long-term storage. They provide the infrastructure that individual researchers cannot maintain on their own.

The process, often called “FAIRification,” should start at the beginning of a project. Researchers should:
  1. Create a Data Management Plan (DMP).
  2. Use open file formats during data collection.
  3. Choose a reputable repository early.
  4. Consistently document variables and methodologies in a “README” file or metadata schema.

While originally designed for data, these principles are now applied to software, algorithms, and workflows. “FAIR for Research Software” (FAIR4RS) ensures that the code used to generate results is also findable and reusable, which is essential for the reproducibility of scientific results.

FAIR has moved from a “best practice” to a requirement. Major funding bodies, including the European Commission (Horizon Europe), the NIH in the US, and the National Science Centre (NCN) in Poland, now require FAIR data management. Compliance is often a condition for receiving and maintaining research grants.

 
Czym dokładnie jest Otwarta Nauka i jakie są jej główne filary?

Otwarta Nauka to podejście do procesu naukowego oparte na współpracy i rozpowszechnianiu wiedzy przy użyciu technologii cyfrowych. Nie ogranicza się tylko do czytania artykułów za darmo. Jej główne filary to:

  • Open Access: Darmowy dostęp do publikacji naukowych.
  • Open Data: Udostępnianie danych badawczych (zgodnie z FAIR).
  • Open Source: Publikowanie kodu programistycznego użytego w badaniach.
  • Open Methodology: Opisywanie całego procesu badawczego, by inni mogli go powtórzyć.
  • Citizen Science: Angażowanie społeczeństwa (amatorów, wolontariuszy) w zbieranie i analizę danych.

Od 2021 roku większość instytucji finansujących w Europie (tzw. cOAlition S) wymaga natychmiastowego otwartego dostępu do wszystkich publikacji wynikających z ich grantów.

To dwa najpopularniejsze modele publikowania artykułów:

  • Złota droga (Gold Open Access): Artykuł jest natychmiast dostępny za darmo na stronie wydawcy. Często wiąże się to z opłatą APC (Article Processing Charge) ponoszoną przez autora lub jego instytucję.
  • Zielona droga (Green Open Access/Self-archiving): Autor publikuje artykuł w tradycyjnym czasopiśmie (za subskrypcją), ale jednocześnie umieszcza kopię (np. wersję po recenzji, tzw. postprint) w otwartym repozytorium instytucjonalnym. Często obowiązuje tu okres karencji (embargo) nałożony przez wydawcę.

Otwarta Nauka (Open Science), w tym otwarty dostęp (Open Access) do publikacji i danych badawczych, co do zasady nie zagraża prawom autorskim, lecz zmienia model ich wykorzystywania – z modelu „wszystkie prawa zastrzeżone” na „pewne prawa zastrzeżone”. W rzeczywistości otwarta nauka opiera się na prawie autorskim, wykorzystując je do legalnego udostępniania wiedzy.

Pojawiające się obawy wynikają zazwyczaj z nieporozumień co do zakresu ochrony prawa autorskiego oraz różnic między ochroną twórczości a ochroną pomysłów/danych.

Oto szczegółowa analiza tego zagadnienia:

  1. Otwarta Nauka a Prawo Autorskie (Copyright)

Otwarta Nauka nie znosi prawa autorskiego. Twórca (naukowiec) nadal zachowuje autorskie prawa osobiste (prawo do autorstwa) oraz majątkowe.

  • Wolne licencje jako narzędzie: Ruch otwartej nauki korzysta z narzędzi prawnych, takich jak licencje Creative Commons (CC). Autor decyduje, jak inni mogą korzystać z jego pracy (np. czy zezwala na komercyjne użycie, czy wymaga uznania autorstwa).
  • Zmiana paradygmatu: Zamiast przekazywać majątkowe prawa autorskie wydawcy na wyłączność, naukowiec publikuje w modelu Open Access, zachowując prawa dla siebie i udzielając publicznej licencji na korzystanie z utworu.
  • Ochrona przed plagiatem: Otwarty dostęp ułatwia wykrywanie plagiatów, ponieważ praca jest powszechnie dostępna i łatwa do zweryfikowania.
  1. Otwarta Nauka a Własność Intelektualna (IP)

Własność intelektualna to szersze pojęcie, obejmujące zarówno prawa autorskie, jak i prawa własności przemysłowej (patenty, znaki towarowe).

  • Dane badawcze (Research Data): Co do zasady, surowe dane badawcze, fakty, idee i metody nie są chronione prawem autorskim. Otwarta nauka promuje udostępnianie tych danych, co nie narusza praw, bo one na nich nie przysługują.
  • Komercjalizacja a otwartość: Największym wyzwaniem jest komercjalizacja. Otwarta nauka promuje szybkie dzielenie się wynikami, co może kolidować z wymogiem nowości (novelty) przy ubieganiu się o patent.
  • Rozwiązanie: “Tak otwarte, jak to możliwe, tak zamknięte, jak to konieczne”: W przypadku projektów z potencjałem komercyjnym, procedura powinna wyglądać następująco: najpierw zgłoszenie patentowe (ochrona IP), a dopiero potem publikacja otwarta.
  1. Ryzyka i kontrowersje

Mimo że idea jest bezpieczna, w praktyce występują pewne wyzwania:

  • Niewłaściwe licencjonowanie: Użycie zbyt liberalnej licencji (np. CC0 lub CC-BY) może uniemożliwić przyszłą komercjalizację przez uniwersytet.
  • Wykorzystanie przez AI: Treści naukowe udostępniane w modelu otwartym mogą być maszynowo przetwarzane (text and data mining) przez sztuczną inteligencję, co rodzi pytania o komercyjne wykorzystanie tych danych bez korzyści dla autorów.
  • Brak wiedzy: Naukowcy często nie znają swoich praw i błędnie uważają, że publikacja w otwartym dostępie oznacza “zrzeczenie się” praw autorskich.

Podsumowanie

Otwarta Nauka nie niszczy ochrony własności intelektualnej, lecz wymusza jej mądrzejsze zarządzanie. Zamiast monopolu na wiedzę, promuje ona jej upowszechnianie przy zachowaniu autorstwa. Wymaga to jednak od naukowców większej świadomości prawnej i umiejętnego doboru licencji.

Nauka boryka się z problemem, w którym wielu wyników badań nie udaje się powtórzyć. Otwarta Nauka rozwiązuje to poprzez radykalną przejrzystość. Gdy badacz udostępnia nie tylko końcowy wniosek, ale też surowe dane, skrypty analityczne i szczegółowy protokół, inni naukowcy mogą dokładnie sprawdzić każdy krok. Eliminuje to zjawiska takie jak “p-hacking” (manipulowanie danymi dla wyniku istotnego statystycznie) i pozwala na szybsze wyłapywanie błędów.

P-hacking – manipulacja statystyczna

  1. Definicja i istota problemu

P-hacking (znany również jako „data dredging„, „significance chasing” lub „fishing for data„) to nieetyczna praktyka badawcza, polegająca na manipulowaniu danymi, metodami lub testami statystycznymi w taki sposób, aby uzyskać istotne statystycznie wyniki (zazwyczaj p < 0,05).

Istotą problemu jest fakt, że p-hacking „produkuje” fałszywie pozytywne wyniki (błędy I rodzaju), sprawiając, że hipoteza, która w rzeczywistości jest fałszywa, wydaje się potwierdzona empirycznie.

  1. Najczęstsze techniki p-hackingu

Badacze dopuszczający się p-hackingu stosują różne metody, często nieświadomie pod presją publikacji („publish or perish„). Do najczęstszych należą:

  • Selektywne raportowanie danych (Cherry-picking): Analizowanie wielu zmiennych, ale raportowanie tylko tych, które wykazały istotność statystyczną.
  • Zmiana wielkości próby (n-hacking): Przeprowadzanie testów na małej grupie, a następnie dodawanie kolejnych obserwacji tylko do momentu, gdy p < 0,05.
  • Wielokrotne testowanie: Wykonywanie ogromnej liczby testów dla różnych kombinacji grup badawczych, co drastycznie zwiększa szansę na znalezienie wyniku istotnego czystym przypadkiem.
  • Usuwanie obserwacji odstających (outliers): Eliminowanie danych, które nie pasują do hipotezy, bez merytorycznego uzasadnienia.
  • Manipulacja zmiennymi: Przekształcanie danych (np. logarytmowanie) lub zmiana zmiennych zależnych w trakcie analizy, by poprawić wynik.
  1. Różnica: Rzetelna analiza a P-hacking
  • Rzetelna nauka: Hipoteza jest stawiana przed analizą danych. Metodologia jest ustalana z góry. Wszystkie wyniki (nawet te nieistotne) są raportowane.
  • P-hacking: Dane są zbierane, a hipotezy dostosowywane po analizie („post-hoc„), aby pasowały do wyników.
  1. Wpływ na naukę (Kryzys replikacji)

P-hacking jest jednym z głównych powodów tzw. kryzysu replikacji. Wiele opublikowanych badań, które wykazały „przełomowe” wyniki, nie może zostać powtórzonych przez innych naukowców. Prowadzi to do:

  • Marnowania zasobów finansowych i czasu na badania oparte na fałszywych przesłankach.
  • Utraty zaufania publicznego do nauki.
  • Błędnych decyzji w medycynie, polityce społecznej czy ekonomii.
  1. Jak zapobiegać p-hackingowi?

Aby ograniczyć zjawisko p-hackingu, środowisko naukowe wprowadza coraz więcej rygorystycznych standardów:

  • Prerejestracja badań (Pre-registration): Rejestrowanie planu badania, hipotez i metod analizy w publicznej bazie danych przed zebraniem danych.
  • Raportowanie wyników negatywnych: Publikowanie badań, które nie wykazały istotności (tzw. „null results”).
  • Analiza siły testu (Power analysis): Określanie wielkości próby z góry, aby uniknąć manipulacji wielkością grupy.
  • Otwarte dane (Open Data): Udostępnianie surowych danych, aby inni badacze mogli zweryfikować obliczenia.

P-hacking to zniekształcanie prawdy naukowej poprzez statystyczne „czarowanie”. Jest to zjawisko, które choć pozwala na szybki sukces publikacyjny, ostatecznie szkodzi fundamentom rzetelnego poznania.

Otwarta Nauka ma ogromny wpływ na społeczeństwo:

  • Medycyna: Lekarze i pacjenci mają dostęp do najnowszych wyników badań klinicznych bez płacenia za drogie subskrypcje.
  • Gospodarka: Małe i średnie firmy mogą korzystać z innowacji wypracowanych na uczelniach, co napędza lokalny rozwój.
  • Edukacja: Studenci i nauczyciele z krajów rozwijających się mają te same materiały, co badacze z prestiżowych uczelni (np. MIT czy Oxford).
  • Walka z dezinformacją: Publiczny dostęp do źródeł pozwala weryfikować sensacyjne doniesienia medialne bezpośrednio u źródła naukowego.

 

Lista kontrolna dokumentacji metadanych
  1. Podstawowe informacje (Identyfikacja)
    • Tytuł: Czy nazwa zestawu danych jest unikalna i opisowa?
    • Autorzy: Czy wymieniono wszystkich twórców wraz z ich numerami ORCID?
    • Data: Czy określono datę powstania danych oraz datę ich publikacji?
    • Identyfikator: Czy zestaw danych posiada (lub będzie posiadał) stały numer DOI?
    • Instytucja: Czy wskazano jednostkę naukową finansującą lub prowadzącą badania?
  2. Opis zawartości (Kontekst)
    • Abstrakt: Czy krótko wyjaśniono cel zebrania tych konkretnych danych?
    • Słowa kluczowe: Czy użyto terminów z kontrolowanych słowników (np. MeSH, AGROVOC)?
    • Metodologia: Czy opisano proces zbierania danych, użyte instrumenty i oprogramowanie (wraz z wersjami)?
    • Język: Czy określono język, w którym sporządzono dokumentację?
  3. Struktura i format (Techniczne)
    • Spis plików: Czy dołączono listę wszystkich plików wchodzących w skład zestawu?
    • Formaty: Czy dane są w formatach otwartych/niezależnych (np. .csv zamiast .xlsx)?
    • Słownik zmiennych (Codebook): Czy każda kolumna w tabeli ma wyjaśnione znaczenie i jednostki miary?
    • Wartości brakujące: Czy określono, jak oznaczone są braki w danych (np. “NA”, “999”)?
  4. Kwestie prawne i dostęp (Reusable)
    • Licencja: Czy jasno określono warunki ponownego użycia (np. CC-BY 4.0)?
    • Prawa dostępu: Czy podano informację, czy dane są publiczne, czy wymagają autoryzacji?
    • Cytowanie: Czy zamieszczono gotowy format cytowania Twoich danych?

Najlepiej przygotować dokumentację na dwóch poziomach:

  • Plik README.txt: Prosty plik tekstowy umieszczony w głównym folderze z danymi (dla ludzi).
  • Metadane w repozytorium: Pola wypełniane w formularzu online podczas wgrywania danych (dla maszyn/wyszukiwarek).

Kluczowa wskazówka: Zawsze dołączaj plik README w formacie .txt lub .md. Jest on czytelny na każdym systemie operacyjnym i przetrwa dziesięciolecia.

Uniwersalny szablon pliku README.txt (lub README.md), przygotowany zgodnie z najlepszymi praktykami FAIR. Możesz go skopiować, wkleić do notatnika i uzupełnić swoimi danymi.

Kilka wskazówek przed publikacją:

  • Format: Zapisz plik jako README.txt lub README.md.
  • Język: Jeśli publikujesz w repozytorium międzynarodowym (np. Zenodo), najlepiej wypełnij szablon po angielsku.
  • Wersjonowanie: Jeśli zmienisz coś w danych, dodaj sekcję „Wersja 2.0” i krótko opisz zmiany.

 

				
					# TYTUŁ ZESTAWU DANYCH
(np. Wyniki pomiarów stężenia pyłów zawieszonych w aglomeracji śląskiej 2024-2025)

## 1. INFORMACJE OGÓLNE
* Autorzy: [Imię Nazwisko, ORCID; Imię Nazwisko, ORCID]
* Instytucja: [Nazwa Uczelni / Instytutu]
* Kontakt: [Adres e-mail lub link do profilu naukowego]
* Data powstania danych: [RRRR-MM-DD – RRRR-MM-DD]
* Lokalizacja geograficzna: [np. Sosnowiec, Polska]
* Finansowanie: [np. NCN, nr projektu: 202X/XX/X/XXX/XXXXX]

## 2. INFORMACJE O DOSTĘPIE
* Licencja: [np. Creative Commons Attribution 4.0 International (CC BY 4.0)]
* Zalecany sposób cytowania: [Autorzy (Rok). Tytuł. Repozytorium. DOI]
* Link do danych: [Wklej DOI, jeśli już masz]

## 3. METODOLOGIA
* Cel badania: [Krótki opis, co badano i dlaczego]
* Opis zbierania danych: [Metody, procedury, urządzenia]
* Użyte oprogramowanie: [Nazwa softu, wersja, system operacyjny]
* Przetwarzanie danych: [Opis kroków od danych surowych do przetworzonych]

## 4. STRUKTURA PLIKÓW
* [nazwa_pliku_1.csv]: Krótki opis zawartości (np. dane surowe z czujnika A)
* [nazwa_pliku_2.csv]: Dane przetworzone, uśrednione miesięcznie
* [skrypt_analizy.R]: Kod użyty do wygenerowania wykresów

## 5. SŁOWNIK DANYCH (CODEBOOK)
(Opisz każdą kolumnę w Twoich plikach .csv)
* [Nazwa_kolumny_A]: Opis, jednostka miary (np. Temperatura, stopnie Celsjusza)
* [Nazwa_kolumny_B]: Typ danych (np. liczbowy, tekstowy, data)
* Oznaczenie brakujących danych: [np. „NA”, „-999” lub puste pole]

## 6. INFORMACJE DODATKOWE
* Publikacje powiązane: [Link do artykułu, który opisuje te badania]
* Uwagi: [Wszelkie specyficzne informacje potrzebne do zrozumienia danych]

				
			
Repozytoria Multidyscyplinarne (Dla wszystkich)

Jeśli Twoja dziedzina nie ma dedykowanego miejsca, te serwisy są najlepszym wyborem:

  • Zenodo: Prowadzone przez CERN; idealne na dane, kod i prezentacje.
  • Figshare: Komercyjne, ale bardzo popularne; świetne do wizualizacji i zestawów danych.
  • Dryad: Skupione na danych powiązanych z publikacjami naukowymi (wymaga wysokiej jakości metadanych).

 

  • GenBank / NCBI: Standard dla sekwencji nukleotydów.
  • Protein Data Bank (PDB): Repozytorium struktur 3D białek i kwasów nukleinowych.
  • ClinicalTrials.gov: Kluczowe dla rejestracji i wyników badań klinicznych.
  • ELIXIR: Europejska infrastruktura dla danych biologicznych.
  • ICPSR: Jedno z największych archiwów danych społecznych na świecie.
  • CESSDA: Konsorcjum europejskich archiwów danych społecznych.
  • CLARIN / DARIAH: Infrastruktury dedykowane cyfrowej humanistyce i analizie języka.
  • Pangaea: Specjalistyczne repozytorium dla nauk o Ziemi i środowisku.
  • HEPData: Repozytorium danych z fizyki wysokich energii.
  • Materials Project: Otwarte dane na temat właściwości materiałów.
  • GitHub / Zenodo: Standardowe połączenie do archiwizacji kodu źródłowego (skryptów analizy).
  •  
  • Repozytorium Otwartych Danych (RepOD): Prowadzone przez ICM UW (część platformy biblioteki nauki).
  • Most Wiedzy: Platforma Politechniki Gdańskiej (otwarta dla wielu instytucji).
  • AZON: Atlas Zasobów Otwartej Nauki (skupiony na zasobach dolnośląskich uczelni).

Jeśli powyższa lista nie pokrywa Twoich potrzeb, skorzystaj z globalnej wyszukiwarki:

  • re3data.org: Największy katalog repozytoriów danych z filtrami według dyscypliny i kraju.
Czym dokładnie jest DMP i kiedy należy go przygotować?

Plan Zarządzania Danymi (ang. Data Management PlanDMP) to dokument opisujący, co stanie się z danymi badawczymi w trakcie projektu oraz po jego zakończeniu. Obecnie jest on wymagany przez większość agencji finansujących badania (np. NCN, KE).

DMP to formalny dokument określający cykl życia danych w projekcie. Powinien powstać na samym początku, przed zebraniem pierwszych danych. Opisuje on:

  • Jakie dane zostaną wytworzone lub zebrane.
  • Jakie standardy i metodologie zostaną zastosowane.
  • Jak dane będą zabezpieczane w trakcie prac.
  • Gdzie zostaną zarchiwizowane po zakończeniu grantu.
    Większość instytucji (jak NCN) wymaga wstępnego DMP już na etapie składania wniosku o finansowanie.

Dobry DMP musi być konkretny i techniczny. Standardowy szablon (np. wg wytycznych Science Europe) zawiera:

  • Gromadzenie danych: Typy plików (np. .csv, .tiff), szacowana objętość (GB/TB).
  • Dokumentacja i metadane: Jak dane zostaną opisane (np. standard Dublin Core, plik README).
  • Etyka i poufność: Jak chronione będą dane osobowe (zgodność z RODO) lub dane wrażliwe.
  • Przechowywanie: Harmonogram kopii zapasowych i bezpieczeństwo serwerów.
  • Udostępnianie: Wybór repozytorium i licencji (np. CC BY 4.0).

 

DMP postrzega się jako dokument „żywy”, ponieważ badania naukowe są nieprzewidywalne. W trakcie projektu mogą zmienić się formaty danych, ich objętość lub skład zespołu.

  • Plan należy aktualizować co najmniej trzy razy: przy składaniu wniosku, w trakcie trwania projektu oraz przy raporcie końcowym.
  • Każda istotna zmiana w zarządzaniu danymi powinna zostać odnotowana w DMP, aby dokument odzwierciedlał rzeczywisty stan prac.

 

Najczęstsze błędy, które mogą obniżyć ocenę wniosku grantowego, to:
  • Zbyt ogólne sformułowania: Np. „Dane zostaną zapisane na dysku twardym” (brak opisu bezpieczeństwa i kopii zapasowych).
  • Brak konkretnego repozytorium: Deklaracja „udostępnię dane w Internecie” zamiast wskazania konkretnego miejsca (np. Zenodo, RepOD).
  • Niezgodność z FAIR: Ignorowanie zasad interoperacyjności (np. używanie wyłącznie zamkniętych, płatnych formatów plików).
  • Brak kosztorysu: Zapominanie, że archiwizacja dużych zbiorów danych może generować koszty, które należy wpisać w budżet grantu.
Nie trzeba pisać DMP od zera w edytorze tekstu. Istnieją dedykowane narzędzia online, które prowadzą badacza „za rękę”:
  • DMPonline: Najpopularniejsze narzędzie w Europie, zawierające szablony największych fundatorów (np. Komisji Europejskiej).
  • DMP Tool: Amerykański odpowiednik, bardzo intuicyjny.
  • ARGOS: Narzędzie zintegrowane z OpenAIRE, ułatwiające łączenie DMP z innymi wynikami badań.

Narzędzia te oferują gotowe podpowiedzi i przykłady odpowiedzi, co znacząco przyspiesza proces pisania.

Czym charakteryzują się drapieżne czasopisma?

Czasopisma drapieżne (ang. predatory journals) to nieuczciwe wydawnictwa, które wyzyskują model „Open Access” dla zysku, nie dbając o jakość naukową publikowanych prac.

Ich głównym celem jest pobranie opłaty od autora (APC), a nie upowszechnianie rzetelnej wiedzy.

  • Brak rzetelnej recenzji: Publikują niemal wszystko, co zostanie wysłane, często w ciągu kilku dni.
  • Agresywny marketing: Masowo wysyłają spamerskie e-maile z „zaproszeniem” do publikacji, często komplementując dorobek naukowca.
  • Kłamanie o prestiżu: Podają fałszywe wskaźniki (np. Global Impact Factor) lub podszywają się pod znane tytuły.
  • Ukryte opłaty: Informacja o kosztach pojawia się dopiero po zaakceptowaniu tekstu, gdy autor nie może się już wycofać.
  1. Skorzystaj z „Think. Check. Submit.”
    To międzynarodowa kampania pomagająca naukowcom. Zanim wyślesz tekst, zadaj sobie pytania:
    • Czy Ty lub Twoi koledzy znacie to czasopismo?
    • Czy łatwo można znaleźć i skontaktować się z wydawcą?
    • Czy proces recenzji jest jasno opisany?
  1. Sprawdź obecność w bazach (Whitelists)
    Jeśli czasopisma nie ma w poniższych bazach, zachowaj najwyższą ostrożność:
    • DOAJ (Directory of Open Access Journals): Najważniejszy katalog rzetelnych czasopism otwartych.
    • Web of Science / Scopus: Renomowane bazy indeksujące.
    • Lista ministerialna (KEN): W Polsce warto sprawdzić, czy czasopismo znajduje się w aktualnym wykazie MEiN.
  1. Zweryfikuj Radę Naukową (Editorial Board)
    Czasopisma drapieżne często wpisują nazwiska znanych profesorów bez ich wiedzy. Sprawdź na stronach uczelni tych osób, czy faktycznie przyznają się do współpracy z danym tytułem.
  2. Uważaj na „puste” obietnice
    Prawdziwy proces recenzji (peer-review) trwa zazwyczaj od kilku tygodni do kilku miesięcy. Jeśli czasopismo obiecuje publikację w 48 godzin – to niemal na pewno oszustwo.
Jeśli masz wątpliwość co do konkretnego tytułu, sprawdź portal JournalCheckersTool.org – pozwala on zweryfikować, czy czasopismo jest zgodne z wymaganiami Twojego grantodawcy (np. NCN czy Horizon Europe).
 
  • Strata pieniędzy: Opłaty są często bardzo wysokie.
  • Plama na życiorysie: Publikacja w takim miejscu obniża wiarygodność naukowca.
  • Brak punktacji: Takie prace często nie liczą się do dorobku przy awansach czy grantach.
  • Uwięzienie badań: Trudno wycofać tekst z takiego wydawnictwa, by opublikować go gdzie indziej (możesz stracić prawa do własnego odkrycia).