Dlaczego plik w Excelu to za mało? Kontekst i motywacje
Dane zamknięte na dysku kontra dane w globalnym obiegu
Plik w Excelu zapisany na dysku służbowego laptopa wydaje się bezpieczny i „pod ręką”. Problem zaczyna się w momencie, kiedy badanie nabiera rozpędu: pojawiają się współautorzy, recenzenci, kolejne wersje analiz, a po roku nikt już nie pamięta, która wersja „final_v3_poprawione” jest tą właściwą. Dane teoretycznie istnieją, ale w praktyce są niewidoczne dla świata, trudne do zacytowania i niemal niemożliwe do ponownego użycia.
Udostępnione dane badawcze funkcjonują zupełnie inaczej. Zbiór opatrzony DOI, osadzony w stabilnym repozytorium, z jasną licencją i sensownym opisem, może być odnaleziony przez wyszukiwarki naukowe, trafić do przeglądów systematycznych, projektów porównawczych czy meta-analiz. Ten sam arkusz Excela, który dotąd istniał tylko na Twoim komputerze, zaczyna działać jako pełnoprawna publikacja danych, do której inni mogą się odwołać, którą mogą cytować i rozwijać.
Różnica jest zasadnicza: dane zamknięte to jednorazowy wysiłek, który kończy się wraz z publikacją artykułu. Dane udostępnione w globalnym repozytorium stają się zasobem, który może generować nowe współprace, publikacje i projekty przez wiele lat, czasem niezależnie od Twojej bezpośredniej aktywności.
Realne korzyści dla badacza i zespołu
Udostępnianie danych badawczych przekłada się na bardzo konkretne korzyści. Po pierwsze, rośnie widoczność pracy naukowej: zbiory danych są indeksowane w wyszukiwarkach (Google Scholar, OpenAIRE, re3data), a każde ich użycie w kolejnej publikacji generuje kolejne cytowania. Coraz więcej czasopism zachęca do cytowania danych osobnym rekordem, co podwaja widoczność – cytowany jest zarówno artykuł, jak i sam zbiór danych z własnym DOI.
Po drugie, dobrze przygotowane repozytorium działa jak magnes na współpracowników. Ktoś szukający danych do porównań, replikacji lub rozszerzeń szybko doceni przejrzysty opis, czytelne zmienne i jasną licencję. Często pierwszym krokiem jest mail z pytaniem o szczegóły, który w naturalny sposób prowadzi do wspólnych analiz i współautorstwa w kolejnych pracach.
Po trzecie, przejrzyste dane skracają drogę w procesie recenzji. Recenzent, który może zajrzeć do repozytorium, ma mniej wątpliwości co do rzetelności analiz. Zamiast długich opisów reakcji na zarzuty o „brak przejrzystości”, wystarczy odesłać do zbioru danych, skryptów i dokumentacji. W praktyce usuwa to wiele potencjalnych konfliktów i przyspiesza akceptację publikacji.
Wreszcie, otwarte dane to silny element CV grantowego. Instytucje finansujące badania coraz uważniej patrzą na to, co dzieje się z wynikami poprzednich projektów. Linki do repozytoriów, DOI do zbiorów danych, polityka otwartości opisana w podaniu – wszystko to pokazuje recenzentom, że wyniki nie lądują w szufladzie, ale realnie zasilają wspólne zasoby nauki.
Presja instytucji, czasopism i grantodawców
Coraz więcej uczelni, instytutów i agencji grantowych wprowadza polityki otwartego dostępu i wymogi dotyczące udostępniania danych. Plany zarządzania danymi (DMP) są dziś standardowym elementem wniosków o finansowanie. Deklarujesz w nich, gdzie zdeponujesz dane, w jakim formacie, na jakiej licencji, przy jakim poziomie anonimizacji.
Czasopisma także zaostrzają kurs. W wielu tytułach polityka „data availability” stała się obowiązkowa: albo deponujesz dane w repozytorium, albo musisz przekonująco uzasadnić wyjątek (np. dane ekstremalnie wrażliwe, niemożliwe do wystarczającej anonimizacji). Recenzenci coraz częściej pytają wprost: gdzie można pobrać dane, z jakim DOI, na jakich warunkach.
Bez spójnej strategii kończy się to nerwowym reagowaniem na wymagania: chaotycznym wyszukiwaniem plików, hurtowym anonimizowaniem na ostatnią chwilę i próbami zrozumienia, co właściwie jest w „final_ostateczne_na_pewno.xlsx”. Prosty, zaplanowany z wyprzedzeniem proces – od pliku do globalnego repozytorium – pozwala w takich sytuacjach reagować spokojnie i szybko.
Skutki braku planu dla danych badawczych
Brak strategii udostępniania danych nie oznacza tylko utraconej szansy na cytowania. Pojawiają się też twarde koszty. Po kilku miesiącach lub latach powrót do własnych danych bez porządnego opisu bywa niemal niemożliwy. Zmienione nazwy zmiennych, brak informacji o jednostkach, nieoznaczone brakujące wartości – to wszystko sprawia, że dane są „technicznie istniejące”, ale praktycznie bezużyteczne.
Bez wersjonowania pojawiają się konflikty w zespole: dwie osoby równolegle edytują ten sam plik, zapisują różne wersje, a potem nikt nie wie, który wynik jest „obowiązujący”. Brak ustalonych ścieżek dostępu (kto może otwierać surowe dane, a kto tylko przetworzone) generuje również ryzyka prawne, zwłaszcza w kontekście RODO i danych wrażliwych.
W najbardziej problematycznych sytuacjach brak ładu w danych uderza w reputację. Recenzent lub współpracownik, który dostaje nieczytelny, pełen błędów plik, traci zaufanie do całego projektu. Odzyskanie takiego zaufania wymaga ogromnej pracy, podczas gdy dobrze zaprojektowana ścieżka od razu buduje wizerunek zespołu, który panuje nad swoimi danymi.
Przykład: od skromnego Excela do międzynarodowej współpracy
Badaczka z wydziału nauk społecznych rozpoczyna niewielki projekt ankietowy. Odpowiedzi spływają, dane lądują w Excelu. Po zakończeniu badań plik ma kilka arkuszy, mnóstwo kolorowych zaznaczeń, komentarze w komórkach i niejednoznaczne nazwy zmiennych. W momencie pisania artykułu wszystko jest jeszcze w jej głowie, więc wydaje się zrozumiałe.
Przed wysłaniem pracy do czasopisma badaczka porządkuje dane: przenosi je do formatu CSV, usuwa formatowanie, tworzy słownik zmiennych, opisuje projekt w pliku README, a całość deponuje w Zenodo z licencją CC BY i DOI. W artykule dodaje krótki akapit o dostępności danych i link do repozytorium.
Po roku otrzymuje mail z innego kraju: zespół badaczy analizujący podobny problem prosi o zgodę na wykorzystanie danych w porównawczej analizie międzykulturowej. W zamian proponują współautorstwo w przygotowywanym artykule. To, co zaczynało się jako prosty plik w Excelu, stało się fundamentem międzynarodowej współpracy – tylko dlatego, że dane zostały uporządkowane i wniesione do globalnego obiegu.
Każdy projekt – nawet niewielki – może przejść podobną drogę, jeśli od początku jest myślenie o udostępnianiu danych, a nie tylko o ich „przechowaniu do publikacji”.

Mapa drogi: od pliku do repozytorium – przegląd kroków
Planowanie udostępniania danych już przy tworzeniu koncepcji
Ścieżka od pliku w Excelu do globalnego repozytorium zaczyna się dużo wcześniej, niż powstanie pierwszy wiersz danych. Najlepszy moment na zaprojektowanie sposobu udostępniania to etap koncepcji badawczej i pisania wniosku grantowego. Wtedy można spokojnie zdecydować, które dane będą docelowo otwarte, a które pozostaną zastrzeżone, jaki poziom anonimizacji jest konieczny, jakie repozytorium będzie właściwe.
Plan zarządzania danymi (DMP) działa tu jak mapa drogowa. Zamiast reagować na wymagania w trakcie lub pod koniec projektu, spisujesz z wyprzedzeniem: jakie typy danych wytworzysz, jak będziesz je przechowywać, jak je oczyścisz, jaką strukturę im nadasz, gdzie je zdeponujesz i jaką licencję zastosujesz. Tak przygotowana mapa sprawia, że kolejne kroki stają się rutyną, a nie ciągiem awaryjnych decyzji.
Główne etapy „linii produkcyjnej danych”
Przekucie pojedynczego pliku w Excelu w profesjonalne repozytorium można potraktować jak linię produkcyjną. Kolejne etapy są dość uniwersalne, niezależnie od dziedziny badań.
- Projekt i DMP – definiujesz typy danych, formaty, poziom otwartości, wybierasz repozytorium, ustalasz zasady w zespole.
- Zbieranie danych – pilnujesz struktury, standardów nazw, w miarę możliwości od razu stosujesz docelowe formaty (np. CSV zamiast złożonych arkuszy).
- Porządkowanie i czyszczenie – usuwasz błędy, ujednolicasz formaty, rozdzielasz dane surowe od przetworzonych, dokumentujesz wszystkie przekształcenia.
- Dokumentacja i metadane – tworzysz README, słownik zmiennych, opis metod, informacje o wersji kodu i narzędzi.
- Wybór licencji i repozytorium – dopasowujesz poziom otwartości i licencję (np. CC BY, CC0), przygotowujesz strukturę plików do deponowania.
- Deponowanie i wersjonowanie – wgrywasz dane do repozytorium, sprawdzasz poprawność metadanych, utrwalasz wersję, nadajesz DOI.
- Promocja i użycie – linkujesz dane w publikacjach, prezentacjach, CV, zachęcasz innych do używania zbioru.
Kiedy te etapy są jasno opisane i powtarzalne, ścieżka od pliku w Excelu do globalnego repozytorium przestaje być jednorazowym wysiłkiem, a staje się standardową procedurą w każdym projekcie.
Co dokładnie udostępniać: dane surowe, przetworzone i skrypty
Nie wszystko, co powstaje w projekcie, musi być udostępnione w identyczny sposób. Dobrze jest od początku rozróżniać kilka kategorii:
- Dane surowe – bezpośredni wynik pomiaru, ankiety, eksperymentu. Zwykle najbardziej wrażliwe, wymagają szczególnej ochrony i anonimizacji. Czasem nigdy nie mogą zostać w pełni otwarte (np. pełne nagrania audio z wywiadów).
- Dane przetworzone – zanonimizowane, oczyszczone, z agregowanymi lub zakodowanymi wartościami, bez bezpośrednich identyfikatorów. To one najczęściej trafiają do publicznego repozytorium.
- Skrypty i pipeline’y – kod analityczny (R, Python, Stata, SPSS), notatniki Jupyter, pliki RMarkdown, definicje pipeline’ów (np. Snakemake, Nextflow). Pozwalają odtworzyć proces analizy, a nie tylko wynik końcowy.
- Materiały pomocnicze – kwestionariusze, instrukcje, protokoły, konfiguracje sprzętu i oprogramowania, checklisty, szablony formularzy zgody.
Kluczowe jest jasne rozdzielenie: co pozostaje tajne (np. surowe dane identyfikujące), co może być udostępnione w formie zanonimizowanej, a co jest w pełni otwarte i wolne. Taki podział warto zapisać w DMP i konsekwentnie realizować, aby nie szukać kompromisów dopiero przy publikacji.
Decyzje, które trzeba podjąć na starcie
Pierwsze tygodnie projektu to najlepszy moment, by rozstrzygnąć kilka kluczowych kwestii technicznych i organizacyjnych. Przede wszystkim należy określić poziom anonimizacji: które pola będą usuwane, a które agregowane; czy dane o lokalizacji będą zaokrąglane; czy daty będą zastępowane przedziałami czasu. Te decyzje wpływają na to, jak projektujesz arkusze, formularze i bazy.
Następny element to struktura folderów i nazewnictwo. Wspólny schemat dla całego zespołu eliminuje ciągłe pytania „gdzie jest aktualna wersja danych?” i „jak nazywamy nowe pliki?”. To drobiazg wprowadzany raz, ale procentujący przy każdym kolejnym pliku.
Wreszcie formaty plików i standardy metadanych. Już na starcie można założyć, że dane będą przechowywane w otwartych formatach (CSV, JSON, TXT, TIFF) oraz że podstawowe metadane (tytuł, autor, słowa kluczowe, opis) będą zebrane zgodnie z prostym standardem, np. Dublin Core. Dzięki temu przejście do repozytorium wymaga jedynie dopracowania detali, a nie przebudowy całej struktury danych.
Im więcej tych decyzji zapadnie wcześnie, tym mniej chaotycznych działań pojawi się na końcu projektu, kiedy presja czasowa jest najwyższa.
Prosta wizja „linii produkcyjnej danych”
Żeby ułatwić sobie pracę, można wyobrazić proces zarządzania danymi jako taśmę produkcyjną: po jednej stronie wchodzi „surowy Excel”, po drugiej wychodzi gotowe, opisane, wersjonowane repozytorium z DOI. Po drodze dane przechodzą przez kolejne „stacje”: czyszczenie, dokumentacja, anonimizacja, wybór licencji, deponowanie.
Do każdej z tych stacji można dobrać narzędzia zgodne z własnym stylem pracy: ktoś woli Excela i SPSS, ktoś inny RStudio i Jupyter, jeszcze ktoś inny arkusze Google i prosty edytor tekstu. Niezależnie od preferencji, punkty kontrolne pozostają te same. To sprawia, że ścieżka od pliku do globalnego repozytorium jest powtarzalna, łatwa do nauczenia nowych członków zespołu i odporna na rotację osób w projekcie.
Wprowadzenie takiej „linii produkcyjnej” choćby dla jednego projektu daje fundament, który można później skopiować i rozwijać przy kolejnych badaniach.
Dobrze działa proste wizualne przedstawienie takiej taśmy: diagram na ścianie, tablica Kanban w narzędziu typu Trello czy Jira, a nawet kartka A4 przyklejona nad biurkiem zespołu. Przy każdej „stacji” można dopisać minimalny zestaw zadań: co musi być zrobione, żeby przesunąć dane do kolejnego etapu. Zamiast abstrakcyjnych „standardów otwartej nauki” pojawia się konkretna checklista, którą można odhaczać przy każdym projekcie.
Do tego dochodzi prosty rytuał: regularne przeglądy postępu na tej taśmie. Raz w miesiącu zespół sprawdza, na którym etapie są dane, gdzie pojawiły się blokady i co trzeba poprawić. Takie spotkania trwają krótko, ale systematycznie pilnują, żeby sprawy związane z udostępnianiem nie zostały odłożone na „kiedyś po publikacji”, czyli zazwyczaj na nigdy.
Z czasem „linia produkcyjna danych” przestaje być dodatkiem do projektu i staje się jego stałym elementem – jak harmonogram badań czy budżet. Nowi doktoranci wchodzą w gotowy system zamiast wymyślać wszystko od zera, a doświadczeni badacze po prostu kopiują sprawdzone schematy między projektami. Zyskuje na tym jakość, tempo pracy i wiarygodność wyników.
Kiedy tak spojrzysz na własne pliki Excela, stają się one nie końcem, lecz początkiem drogi. Każdy uporządkowany arkusz to kandydat do repozytorium, każda dobrze opisana zmienna – krok w stronę większego zasięgu Twoich badań. Wystarczy zacząć od jednego projektu i jednej prostej „taśmy”, żeby otworzyć dane na świat zamiast zamykać je w folderze na dysku.
Konkretny przykład ścieżki: od arkusza do zestawu z DOI
Łatwiej wdrożyć „taśmę produkcyjną”, gdy zobaczysz ją na żywym przykładzie. Wyobraź sobie niewielkie badanie ankietowe wśród studentów – kilkaset odpowiedzi w arkuszu Excel. Co musi się wydarzyć, żeby zamienić to w zestaw danych z DOI, na który inni będą się powoływać?
- Ustalenie wersji „źródłowej” – kopia oryginalnego Excela trafia do folderu „dane_surowe” z datą i numerem wersji w nazwie pliku. Na tym pliku nie wykonujesz żadnych operacji, służy jako punkt odniesienia.
- Przekształcenie formatu – robisz eksport do CSV (UTF-8), jeden arkusz = jeden plik. Złożone formuły i scalone komórki znikają, dane stają się prostsze i bardziej przenośne.
- Czyszczenie i standaryzacja – w osobnym pliku (np.
ankieta_clean.csv) ujednolicasz wartości (tak/nie zamiast „tak”, „TAK”, „t”), poprawiasz format dat, usuwasz puste rekordy testowe. Każdą zmianę krótko opisujesz w pliku tekstowym lub notatniku (np.czyszczenie.md). - Anonimizacja – kolumny z adresami e-mail, numerami indeksów czy szczegółową lokalizacją wylatują lub są agregowane. Tam, gdzie trzeba, stosujesz kategorie (np. wiek w przedziałach zamiast daty urodzenia).
- Słownik zmiennych – tworzysz prosty plik
dictionary.csvlubdictionary.xlsxz kolumnami: nazwa_zmiennej, opis, typ, zakres_wartości, jednostka. To drobny wysiłek, który robi kolosalną różnicę dla kogoś z zewnątrz. - README – w jednym pliku tekstowym opisujesz: cel badania, sposób zbierania danych, strukturę plików, zasady anonimizacji, ograniczenia interpretacji.
- Wybór licencji – po konsultacji z zespołem stawiasz np. na CC BY 4.0 dla danych zanonimizowanych. Informację o licencji dopisujesz do README i metadanych.
- Deponowanie – logujesz się do wybranego repozytorium (np. instytucjonalnego lub Zenodo), tworzysz nowy rekord, wgrywasz pliki, wypełniasz pola opisowe i zatwierdzasz wersję.
- Integracja z publikacją – w artykule naukowym w sekcji „Metody” lub „Dane” umieszczasz odnośnik do repozytorium z DOI i krótką informację, co dokładnie zostało udostępnione.
Po pierwszym takim przejściu kolejne projekty idą już znacznie szybciej, bo korzystają z gotowych szablonów i nawyków.
Jak wybrać odpowiednie repozytorium dla Twoich danych
Repozytorium to nie tylko miejsce na pliki, ale też wizytówka projektu. Dobrze dobrana platforma zwiększa widoczność danych, ułatwia cytowanie i daje poczucie bezpieczeństwa na lata. Zamiast szukać „idealnego miejsca”, możesz zawęzić wybór, odpowiadając na kilka pytań.
Najprostsza ścieżka wyboru to trzystopniowy filtr:
- Repozytorium instytucjonalne – sprawdź, czy Twoja uczelnia lub instytut nie udostępnia własnego repozytorium danych. Zaletą jest wsparcie lokalnego zespołu (biblioteka, Dział Badań) i przejrzyste zasady archiwizacji.
- Repozytorium dziedzinowe – w wielu obszarach istnieją wyspecjalizowane bazy (np. dla genomiki, geologii, psychologii, ekonomii). Dają one lepsze wyszukiwanie, standardy metadanych dopasowane do danej dyscypliny i większe szanse, że koledzy po fachu trafią na Twoje zbiory.
- Repozytorium ogólne – gdy nie ma opcji instytucjonalnej lub dziedzinowej, można sięgnąć po uniwersalne platformy (Zenodo, Figshare, OSF, Mendeley Data). Obsługują różne typy danych, nadają DOI i integrują się z ORCID.
Przy porównywaniu konkretnych repozytoriów zwróć uwagę na kilka praktycznych kryteriów:
- Wsparcie dla DOI – czy każde deponowanie kończy się nadaniem niezmiennego identyfikatora?
- Limity wielkości i typy plików – czy Twoje dane mieszczą się w bezpłatnym limicie, czy trzeba dzielić pliki na części?
- Polityka długoterminowego przechowywania – czy repozytorium deklaruje przechowywanie danych co najmniej 10 lat i ma jasny plan migracji do nowych technologii?
- Opcje embarga – czy możesz zdeponować dane teraz, a otworzyć je dopiero po akceptacji artykułu lub zakończeniu okresu ochronnego?
- Integracje – czy repozytorium łączy się z Twoimi narzędziami (GitHub, ORCID, RStudio, Jupyter)?
Dobrze dobrane repozytorium oszczędza dziesiątki maili typu „czy możesz przesłać dane z artykułu sprzed kilku lat?” i od razu stawia Twój zestaw w miejscu, gdzie inni aktywnie szukają podobnych zbiorów.
Licencje: jak otworzyć dane i zachować kontrolę
Udostępnienie danych bez licencji to jak oddanie samochodu bez kluczy – formalnie coś dajesz, ale nikt nie wie, co mu wolno. Licencja jasno precyzuje, na jakich warunkach inni mogą korzystać z Twoich danych, jak mają Cię cytować i czego nie powinni robić.
W przypadku danych badawczych przydaje się kilka prostych opcji:
- CC BY – daje szeroką swobodę wykorzystania, pod warunkiem wskazania autorstwa. Dobra, gdy chcesz maksymalnie zwiększyć zasięg, ale zależy Ci na wyraźnym przypisaniu.
- CC0 – zrzekasz się większości praw (w granicach prawa lokalnego), traktując dane jak domenę publiczną. Świetne dla podstawowych zestawów, słowników, map referencyjnych, które mają być fundamentem dla innych.
- Licencje ograniczające komercję lub modyfikacje (CC BY-NC, CC BY-ND) – kuszące na pierwszy rzut oka, ale potrafią komplikować ponowne użycie w projektach mieszanych (np. z udziałem partnerów przemysłowych). W praktyce część grantodawców je odradza.
Do licencji ogólnej możesz dodać warstwę dobrych praktyk, która nie jest prawnie wiążąca, ale precyzuje Twoje oczekiwania. Przykładowe zapisy w README:
- „Prosimy o cytowanie danych zgodnie z podanym DOI oraz o kontakt w przypadku planowania dużych reanaliz lub badań replikacyjnych.”
- „W przypadku wykrycia błędów lub niejasności w danych prosimy o zgłoszenie uwag na adres e-mail zespołu.”
Dzięki temu zachowujesz szeroką otwartość, a jednocześnie zapraszasz do odpowiedzialnego korzystania i współpracy.
Dokumentacja, która naprawdę pomaga innym (i Tobie za rok)
Najczęstszy opór przed udostępnianiem danych brzmi: „Nikt poza mną się w tym nie połapie”. Najskuteczniejszym lekarstwem jest prosta, ludzka dokumentacja. Nie rozbudowana księga, tylko zestaw krótkich plików, które odpowiadają na podstawowe pytania przyszłego użytkownika.
W praktyce taki „zestaw minimum” może obejmować:
- README – 1–2 strony tekstu opisujące: kontekst projektu, główne zmienne, strukturę folderów, licencję, kontakt do zespołu.
- Słownik zmiennych – tabelę, w której każda kolumna w danych ma opis, typ i przykładową wartość.
- Opis procesu – krótki tekst lub schemat, jak dane powstawały: od rekrutacji uczestników, przez zbieranie, po czyszczenie.
- Instrukcję uruchomienia kodu – jeśli udostępniasz skrypty, kilka zdań o tym, jak je uruchomić, w jakiej kolejności, na jakiej wersji oprogramowania.
Dobrym trikiem jest pisanie dokumentacji tak, jakbyś tłumaczył wszystko sobie sprzed dwóch lat. To wystarczająco wysoki poziom „zapomnienia”, by wychwycić skróty myślowe i brakujące informacje, a jednocześnie dobrze znasz realia projektu.
Każda godzina spędzona na porządnej dokumentacji wraca później wielokrotnie: przy pisaniu kolejnych artykułów, recenzowaniu cudzych prac, przygotowywaniu nowych grantów czy wprowadzaniu do projektu świeżych osób.
Skrypty, kod i powtarzalna analiza: dane to nie wszystko
Coraz częściej recenzenci i grantodawcy pytają nie tylko „czy udostępniasz dane?”, ale też „czy udostępniasz kod analityczny?”. To naturalny krok: surowe liczby bez informacji, jak zostały przekształcone, dają ograniczone możliwości weryfikacji i ponownego użycia.
Nawet jeśli nie czujesz się programistą, możesz stopniowo porządkować analizy tak, by inni mogli je śledzić i odtwarzać. Kilka praktycznych nawyków bardzo to ułatwia:
- Skrypty zamiast „klikania” – tam, gdzie to możliwe, zapisuj operacje w formie skryptu (R, Python, Stata). Dokumentujesz w ten sposób cały pipeline, zamiast liczyć na pamięć.
- Logiczny podział plików – osobny skrypt do czyszczenia danych, osobny do analizy statystycznej, osobny do generowania wykresów. Nazwy typu
01_cleaning.R,02_analysis.Rwiele mówią już z poziomu folderu. - Kontrola wersji – korzystaj z Git/GitHub/GitLab, nawet jeśli na początku tylko Ty będziesz tam zaglądać. Historia zmian w kodzie bywa bezcenna przy odtwarzaniu konkretnych wyników.
- Plik „session info” – zapisuj informacje o wersjach bibliotek i środowiska (np.
sessionInfo()w R,pip freezew Pythonie). Dzięki temu ktoś inny może odwzorować Twoje środowisko analityczne.
W przypadku prostszych analiz w Excelu lub SPSS możesz zamiast skryptów dodać opis kroków w osobnym pliku: jakie filtry zastosowano, które zmienne przeliczono, jakie kryteria wykluczenia przyjęto. To wciąż dużo lepsze niż zupełny brak informacji.
Im więcej z procesu „od Excela do wykresu” uda się zamknąć w formie powtarzalnej (skrypt, pipeline, opis kroków), tym łatwiej komukolwiek – także Tobie – zrozumieć i odtworzyć wyniki za kilka lat.
Anonimizacja w praktyce: balans między prywatnością a użytecznością
Dane wrażliwe są jednym z najczęstszych powodów, dla których badacze rezygnują z otwartego udostępniania. Wiele z nich da się jednak przygotować tak, by chroniły prywatność, a jednocześnie pozostały przydatne naukowo.
Pracę ułatwia podział na kilka prostych kroków:
- Usunięcie bezpośrednich identyfikatorów – imiona, nazwiska, numery PESEL, e-maile, numery telefonów, ID pacjenta z systemu szpitalnego. Te dane nie powinny znaleźć się w zbiorze publicznym.
- Redukcja identyfikatorów pośrednich – szczegółowe daty wizyt, dokładne kody pocztowe, rzadkie kombinacje cech (np. „najstarszy lekarz w małej miejscowości”). Można je agregować (np. do poziomu roku, województwa) lub zamieniać na kategorie.
- Sprawdzenie kombinacji cech – nawet po usunięciu imion i nazwisk pewne zestawienia (wiek + zawód + miejscowość) mogą prowadzić do identyfikacji. Przejrzyj dane pod tym kątem lub zastosuj prosty skrypt wykrywający bardzo rzadkie kombinacje.
- Oddzielenie klucza identyfikacyjnego – jeśli potrzebujesz wewnętrznego numeru ID, przechowuj tabelę mapującą ID na konkretną osobę w zamkniętym, dobrze zabezpieczonym miejscu, poza zbiorem publicznym.
W przypadku danych szczególnie wrażliwych (medycznych, prawnych, edukacyjnych) warto skonsultować się z inspektorem ochrony danych lub prawnikiem instytucyjnym. Czasem rozwiązaniem jest model pośredni: dane nie są „w pełni otwarte”, ale udostępnia się je po podpisaniu umowy, przez wnioskowanie do specjalnej komisji lub w formie silnie zanonimizowanej próbki.
Najważniejsze, żeby decyzje o poziomie anonimizacji i modelu udostępniania zapadały na etapie planowania, a nie pod presją czasu na publikację.
Standardy i schematy metadanych: jak sprawić, by dane dało się znaleźć
Dane nie istnieją w próżni – funkcjonują w większym ekosystemie wyszukiwarek, katalogów i agregatorów. To, czy Twój zbiór wypłynie w tym oceanie, w dużej mierze zależy od jakości metadanych.
Nawet jeśli nie chcesz zagłębiać się w zaawansowane standardy, możesz wdrożyć kilka prostych zasad:
- Opis w języku polskim i angielskim – tytuł, krótki abstrakt i słowa kluczowe w dwóch językach znacząco zwiększają widoczność Twoich danych w skali międzynarodowej.
- Precyzyjne słowa kluczowe – zamiast ogólników typu „nauka”, „medycyna”, używaj haseł opisujących temat, metodę i populację (np. „depresja”, „studenci”, „ankieta online”, „analiza treści”).
- Spójne nazwy autorów i afiliacji – używaj tych samych form nazwisk (np. z polskimi znakami lub bez – ale konsekwentnie) oraz oficjalnych nazw instytucji. Ułatwia to łączenie Twoich danych z profilem ORCID i dorobkiem publikacyjnym.
- Standardowe schematy metadanych – jeśli repozytorium oferuje gotowe szablony (np. oparte na Dublin Core czy DataCite), wypełnij je starannie zamiast wprowadzać wszystko „po swojemu” w jednym polu opisu.
Przy większych projektach opłaca się sięgnąć po dziedzinowe standardy, nawet jeśli na początku brzmią obco. W naukach społecznych będzie to np. DDI, w naukach przyrodniczych – różne formaty powiązane z genomiką, klimatologią czy geoinformacją. W praktyce często wystarczy, że skorzystasz z warsztatu, jaki narzucają: rozdzielenie informacji o projekcie, narzędziach, próbie, zmiennych i wersjach danych.
Jedną z prostszych, a bardzo skutecznych rzeczy jest dodanie stałego identyfikatora także w Twoich własnych materiałach: w slajdach z prezentacji, na posterze, w raporcie dla grantodawcy. Krótkie „Dane: DOI 10.xxxx/xxxxx” sprawia, że osoby zainteresowane nie muszą pisać maili z pytaniem „czy można dostać arkusz z wynikami?”. Klikają i od razu lądują w repozytorium.
Gdy korzystasz z kodu ORCID, ID projektu (np. z Narodowego Centrum Nauki) czy numeru rejestracyjnego badania, wprowadź je również do metadanych. Dzięki temu różne systemy (bazy grantowe, katalogi publikacji, rejestry badań klinicznych) zaczynają „rozmawiać” ze sobą, a Twoje dane znikają z szuflady i pojawiają się w realnym obiegu.
Wybór repozytorium: gdzie „zaparkować” swoje dane
Moment decyzji, gdzie wrzucić dane, często paraliżuje bardziej niż sama anonimizacja czy sprzątanie plików. Opcji jest sporo, ale da się je szybko uporządkować według kilku prostych kryteriów.
Na początek przydaje się takie rozróżnienie:
- Repozytoria dziedzinowe – wyspecjalizowane dla konkretnej branży (np. psychologia, ekonomia, genomika). Dają lepszą widoczność w Twojej społeczności i często bogatsze metadane.
- Repozytoria ogólne – przyjmują dane z różnych dziedzin (np. Zenodo, Figshare, OSF). Dobre, gdy nie ma mocnego repozytorium dziedzinowego lub projekt jest interdyscyplinarny.
- Repozytoria instytucjonalne – prowadzone przez uczelnię lub instytut. Ułatwiają spójność polityki danych w ramach jednej jednostki i zwykle zapewniają wsparcie lokalnego zespołu.
Przy wyborze opłaca się zadać kilka konkretnych pytań:
- Czy repozytorium przydziela DOI lub inny trwały identyfikator? Bez tego trudno później poprawnie cytować dane.
- Jak wygląda długoterminowe przechowywanie? Szukaj deklaracji minimalnego okresu (np. 10 lat) oraz informacji o backupach i migracji danych.
- Czy możesz kontrolować poziom dostępu? Przy wrażliwych danych ważna jest możliwość ustawienia embarga, licencji „tylko po wniosku” lub udostępnienia samej dokumentacji.
- Jak repozytorium jest indeksowane? Dobrze, gdy jest widoczne w takich serwisach jak re3data, OpenAIRE, Google Dataset Search.
Jeśli projekt ma wytyczne grantodawcy (np. wymóg konkretnego repozytorium europejskiego), zacznij właśnie od nich. Czasem najlepiej zadziała duet: dziedzinowe repozytorium dla głównych danych + instytucjonalne dla materiałów dodatkowych, kodu lub dokumentacji w języku narodowym.
Gdy kręcisz się między opcjami, zrób prosty test: zobacz, jak wyglądają zbiory innych zespołów w Twojej dziedzinie i pójść ich śladem – oszczędzasz sobie godzin rozkmin.
Licencje na dane: na jakich zasadach inni mogą korzystać
Udostępnienie danych bez jasnej licencji to jak zostawienie drzwi otwartych, ale z tabliczką „domyśl się”. Dopiero licencja precyzuje, co wolno, a czego nie wolno zrobić z Twoim zbiorem.
Najczęściej w badaniach spotyka się kilka rodzin licencji:
- Creative Commons – proste, czytelne, szeroko rozpoznawalne. W danych zwykle stosuje się:
- CC BY – można wykorzystywać, modyfikować, komercjalizować, pod warunkiem podania autorstwa;
- CC BY-SA – jak wyżej, ale prace pochodne muszą być na tej samej licencji;
- CC0 – „no rights reserved”, rezygnacja z praw autorskich w maksymalnym możliwym zakresie; najbliżej idei „domena publiczna”.
- Licencje dedykowane danym – np. Open Data Commons (ODC-BY, ODbL), wykorzystywane zwłaszcza przy dużych bazach, danych przestrzennych i administracyjnych.
Dla większości akademickich projektów minimum to licencja CC BY: inni mogą korzystać swobodnie, ale muszą Cię cytować. Jeśli zależy Ci na maksymalnym zasięgu i ponownym użyciu, rozważ CC0 – część instytucji i wydawców wręcz ją rekomenduje.
Przed wyborem licencji sprawdź:
- zapisy umowy grantowej (niektórzy grantodawcy narzucają konkretne rozwiązania),
- regulacje swojej instytucji (kto formalnie jest właścicielem danych),
- zapisy zgód uczestników – jeśli obiecywałeś silne ograniczenia w udostępnianiu, nie próbuj ich „rozmiękczać” licencją.
Dużo ułatwia powtarzalny wzorzec opisu: w każdym zbiorze ten sam akapit z nazwą licencji, linkiem do jej treści i krótkim zdaniem, jak należy cytować dane. Po kilku projektach piszesz to niemal z pamięci.
Plan zarządzania danymi (DMP): mapa drogowa zamiast gaszenia pożarów
Coraz więcej konkursów grantowych wymaga Data Management Plan już na etapie wniosku. Brzmi biurokratycznie, ale dobrze napisany DMP jest po prostu planem, jak uniknąć chaosu z plikami po trzecim roku badań.
Przy tworzeniu DMP skup się na kilku kluczowych obszarach:
- Jakie dane powstaną? Typ (ankiety, wywiady, pomiary), format (CSV, WAV, JSON), szacowana wielkość, wersje językowe.
- Jak będą przechowywane w trakcie projektu? Foldery współdzielone, serwery instytucji, szyfrowanie, backupy, kontrola dostępu w zespole.
- Jak będą anonimizowane i porządkowane? Kto za to odpowiada, na jakim etapie, przy użyciu jakich narzędzi.
- Gdzie trafią po zakończeniu projektu? Konkretny typ repozytorium, rodzaj licencji, przewidywany poziom otwartości.
- Kto ma jakie role? Osoba odpowiedzialna za dokumentację, za przygotowanie metadanych, za kontakt z repozytorium.
Zamiast pisać DMP „pod formularz”, potraktuj go jako krótką umowę w zespole: jak będziemy nazywać pliki, kto pilnuje backupów, kiedy konkretnie siadamy do czyszczenia i opisu danych. To oszczędza napięć i niedomówień, gdy projekt wchodzi w krytyczną fazę.
Dobrą praktyką jest odświeżenie DMP co najmniej raz w roku. Projekty żyją – zmienia się próba, narzędzia, czasem zakres badań – a plan powinien to odzwierciedlać, zamiast kurzyć się jako załącznik do umowy.
Od danych lokalnych do globalnego obiegu: integracje i agregatory
Nawet najlepsze repozytorium to dopiero pierwszy krok. Dane naprawdę „ożywają” dopiero wtedy, gdy zaczynają krążyć między systemami, katalogami i narzędziami analitycznymi.
Kilka prostych ruchów znacznie poszerza zasięg Twojego zbioru:
- Powiązanie z publikacjami – podawaj DOI danych w artykułach, a w metadanych zbioru dopisuj DOI publikacji. Tworzysz w ten sposób dwukierunkowy most: czytelnik artykułu trafia do danych, a użytkownik danych – do opisu badania.
- Integracja z ORCID – wiele repozytoriów pozwala dodać identyfikatory autorów. Dzięki temu dane wskakują do Twojego profilu naukowego, zamiast wisieć w próżni.
- Pole „related identifiers” – używaj go do łączenia danych z preregistracjami (np. OSF, ClinicalTrials.gov), protokołami, materiałami edukacyjnymi czy raportami dla interesariuszy.
- Tagi dziedzinowe – jeśli repozytorium umożliwia wybór kategorii tematycznych (np. kody klasyfikacji JEL, PACS, kategorie OECD), poświęć chwilę na dopasowanie ich do swojego projektu.
Efekt śnieżnej kuli pojawia się zaskakująco szybko: jedna prezentacja z podanym DOI danych prowadzi do cytowań, kolejne zespoły dorzucają swoje zbiory do tego samego repozytorium dziedzinowego, a Twoje „lokalne” badanie zaczyna być punktem odniesienia globalnie.
Nic tak nie motywuje do dalszego porządkowania danych jak pierwszy mail z drugiego końca świata: „korzystamy z Waszego zbioru w naszym projekcie”.
Przykładowy workflow: od Excela do repozytorium krok po kroku
Teoria jest ważna, ale największy opór często pojawia się przy pytaniu: jak to konkretnie ugryźć przy następnym projekcie? Poniższy scenariusz można spokojnie dostosować do większości badań empirycznych.
- Na starcie projektu
- Ustal z zespołem strukturę folderów i schemat nazewnictwa plików.
- Załóż repozytorium kodu (Git) oraz roboczy folder na dane nieprzetworzone.
- Rozpisz prosty DMP: jedna–dwie strony ustaleń technicznych i organizacyjnych.
- W trakcie zbierania danych
- Regularnie eksportuj dane z narzędzi ankietowych/systemów do ustandaryzowanego formatu (np. CSV).
- Rejestruj zmiany w narzędziach (nowe pytania, poprawki w kwestionariuszu) w pliku „CHANGELOG_dane”.
- Pisząc pierwsze analizy eksploracyjne, od razu twórz skrypty zamiast jednorazowych „klików”.
- Po zamknięciu zbierania
- Przenieś surowe dane do folderu tylko do odczytu; wszelkie modyfikacje rób na kopii roboczej.
- Przygotuj skrypt lub szczegółowy opis czyszczenia danych (filtrowanie, imputacje, łączenie plików).
- Zacznij tworzyć słownik zmiennych równolegle z czyszczeniem – póki wszystko jest świeże w głowie.
- Przed wysłaniem artykułu
- Wyodrębnij zestaw do udostępnienia: wersję zanonimizowaną, bez niepotrzebnych kolumn.
- Uzupełnij dokumentację: README, opis procesu, instrukcję uruchomienia kodu, słownik zmiennych.
- Sprawdź zgodność z DMP i wymaganiami czasopisma/grantodawcy co do zakresu i miejsca udostępnienia.
- Publikacja danych
- Wybierz repozytorium, ustaw licencję, dodaj metadane w dwóch językach.
- Podlinkuj dane w manuskrypcie i materiałach dodatkowych (np. „Data availability statement”).
- Zachowaj lokalną kopię opisu metadanych – przyda się przy kolejnych projektach.
Po jednym–dwóch takich cyklach ten „workflow” przestaje być listą zadań, a staje się naturalnym sposobem pracy z danymi od pierwszego dnia projektu.
Budowanie kultury dzielenia się danymi w zespole
Największa zmiana nie dzieje się w regulaminach, tylko w codziennych nawykach. Jeśli kilka osób w zespole zacznie traktować porządkowanie i udostępnianie danych jako normalny element projektu, reszta szybko złapie rytm.
Dobrym punktem wyjścia są małe, powtarzalne praktyki:
- Spotkania „data check-in” – krótkie, np. raz w miesiącu, tylko o danych: co zostało zebrane, co trzeba uporządkować, jakie decyzje podjąć (formaty, anonimizacja, repozytorium).
- Szablony – wspólne wzory README, słownika zmiennych, DMP. Gdy każdy projekt startuje od tego samego „pakietu bazowego”, bariera wejścia drastycznie spada.
- „Data champion” w zespole – nieformalna rola osoby, która trzyma rękę na pulsie: przypomina o backupach, pomaga przy licencjach, komunikuje się z biblioteką lub działem IT.
- Dzielenie się przykładami – krótka prezentacja na seminarium zespołu: jak inni opisali i udostępnili dane w podobnym projekcie, czego można się od nich nauczyć.
Tworzy się wtedy prosta, ale silna norma: projekt nie jest „zamknięty”, dopóki dane nie są przygotowane do użycia przez innych. Z czasem wchodzi to w krew tak samo jak zamykanie kwestii budżetu czy raportów finansowych.
Gdy kolejny raz będziesz planować badanie, spróbuj od razu pomyśleć o nim oczami przyszłego użytkownika danych – to najlepszy impuls, by od Excela przejść do realnego, globalnego repozytorium.
Typowe przeszkody i jak je przeskoczyć bez straty energii
Przy pierwszej próbie wyjścia „z Excela do świata” zwykle pojawia się ten sam pakiet wymówek: brak czasu, brak narzędzi, strach przed krytyką. Każdą z nich da się oswoić, jeśli potraktujesz ją jak konkretny problem do rozwiązania, a nie jak wyrok.
- „Nie mam czasu na porządki”
Najczęściej oznacza to, że porządki są odkładane „na koniec projektu”. Rozbij je na małe kroki wpisane w harmonogram: 30 minut po każdym większym etapie zbierania danych, jedno spotkanie w miesiącu na dopisanie dokumentacji. To dużo mniej bolesne niż trzy tygodnie desperackiego nadrabiania przed deadlinem. - „Boimy się, że ktoś znajdzie błąd”
Ten lęk mają wszyscy. Publiczny dostęp do danych sprawia jednak, że błędy wychodzą szybciej i da się je naprawić uczciwie, zamiast żyć z poczuciem, że „coś tam może nie grać”. Jeden dobrze opisany erratum z podziękowaniem dla osoby, która wykryła problem, zwykle poprawia reputację, zamiast jej szkodzić. - „Nie wiemy, czy możemy to udostępnić”
Niejasności prawne i etyczne paraliżują. Dlatego lepiej mieć prostą ścieżkę: konsultacja z prawnikiem/biblioteką/komisją etyczną zanim zaczniesz planować udostępnianie. Czasem wyjściem jest wersja silnie zredukowana (agregaty, przedziały, syntetyczne dane), ale to wciąż lepsze niż całkowita blokada. - „To za bardzo nieuporządkowane, wstyd pokazać”
Każdy ma w czeluściach dysku stare, „chaotyczne” pliki. Klucz to wybrać jeden aktywny projekt i potraktować go jako pilotaż zmiany. Nowy standard porządkowania wdrażasz do przodu, nie cofasz się na siłę do wszystkich archiwów sprzed dekady.
Jeśli jakaś przeszkoda wciąż wraca, zapisz ją dosłownie w jednym zdaniu i zadaj zespołowi pytanie: „co jest minimalną rzeczą, którą zrobimy w tym projekcie, żeby było choć trochę lepiej?”. Mały ruch teraz to mniej frustracji przy kolejnym grantcie.
Rola instytucji: jak wykorzystać to, co już istnieje
Udostępnianie danych nie musi być samotną walką z systemem. W wielu instytucjach narzędzia i wsparcie są już pod ręką – tylko rzadko kto z nich korzysta w pełni.
- Biblioteka naukowa jako partner
Bibliotekarze zajmujący się komunikacją naukową często znają zasady działania repozytoriów lepiej niż zespół badawczy. Mogą pomóc dobrać miejsce do deponowania zbiorów, przetłumaczyć wymagania grantodawców na konkretne działania, a czasem także przeprowadzić wstępny przegląd metadanych. - Wewnętrzne wytyczne i polityki
Polityka otwartego dostępu, regulamin archiwizacji, zalecenia komisji etycznej – to nie są tylko dokumenty „dla władz”. Da się z nich wyciągnąć gotowe wzorce zdań do zgód uczestników, minimalne wymagania dot. przechowywania czy sugerowane repozytoria. Zamiast wyważać drzwi, lepiej oprzeć się na tym, co już zostało ustalone. - Infrastruktura IT
Szyfrowane dyski sieciowe, systemy backupu, menedżery haseł, dostęp VPN – to wszystko zwykle istnieje w instytucji, tylko nie jest powiązane z praktyką pracy z danymi badawczymi. Krótka rozmowa z działem IT może zaowocować dedykowanym udziałem dyskowym na dane nieprzetworzone, automatycznymi kopiami lub prostą polityką wersjonowania. - Szkolenia i mikrogranty
Niektóre uczelnie oferują warsztaty z RDM (Research Data Management), a nawet małe granty na „dopracowanie” danych do udostępnienia. Wykorzystanie choć jednego takiego wsparcia może skoczyć o kilka poziomów w górę zarówno jakość dokumentacji, jak i morale zespołu.
Dobrym ruchem jest wypisanie w jednym miejscu: kogo w instytucji pytasz o kwestie prawne, kogo o kwestie techniczne, a kogo o repozytoria – dzięki temu nikt w zespole nie kręci się w kółko z tymi samymi wątpliwościami.
Projektowanie badań „data-first”: odwrócenie perspektywy
Większość projektów startuje od pytania badawczego i hipotez. Spróbuj dorzucić do tego pytanie pomocnicze: jak te dane mają wyglądać w repozytorium za trzy lata? To mocno zmienia decyzje podejmowane na starcie.
- Podejście „tidy” od początku
Zamiast tworzyć pliki z dziesiątkami zakładek i wieloma tabelami, które trudno zrozumieć po kilku miesiącach, planuj struktury „jedna obserwacja w wierszu, jedna zmienna w kolumnie”. W ankietach online czy systemach laboratoryjnych często można to narzucić już na etapie projektowania formularza. - Modułowość zbiorów
Lepsze trzy dobrze udokumentowane pliki powiązane identyfikatorem niż jeden masywny arkusz, którego nikt nie chce otworzyć. Zastanów się, jak podzielić dane na logiczne części (np. dane bazowe, dane z follow-upów, logi eksperymentu) tak, żeby użytkownik mógł wybrać to, czego potrzebuje. - Plan na wrażliwe komponenty
Jeśli wiesz, że część danych będzie z definicji nieudostępniana (np. pełne nagrania wywiadów), od razu rozdziel proces: osobno to, co idzie do bezpiecznego archiwum instytucjonalnego, a osobno to, co będzie agregowane lub anonimizowane do otwartego repozytorium. - Świadome wybory formatów
Nie chodzi tylko o CSV zamiast zamkniętego formatu arkusza. W projektach jakościowych – WAV/FLAC zamiast egzotycznego kodeka, w danych przestrzennych – otwarte standardy GIS, w kodzie – tekstowe pliki skryptów zamiast „makr” w plikach binarnych. To decyduje, czy ktoś z innej dziedziny będzie w stanie w ogóle dotknąć Twoich danych.
Taka perspektywa ułatwia też rozmowę z partnerami i wykonawcami: z góry jasno komunikujesz, że dane nie kończą życia w raporcie, tylko mają drugą, otwartą karierę.
Współdzielenie odpowiedzialności: kto co robi przy danych
Jednym z największych błędów jest założenie, że cała odpowiedzialność za dane spoczywa na jednej osobie – zwykle kierowniku projektu. W praktyce dużo lepiej działa rozproszenie zadań i zdefiniowanie prostych ról.
- Opiekun jakości danych
Pilnuje spójności nazw zmiennych, schematu braków danych, standardów kodowania (np. jak oznaczamy odpowiedzi „nie dotyczy”). Nie musi pisać całego kodu, ale powinien mieć prawo weta, gdy struktura zaczyna się „rozjeżdżać”. - Redaktor dokumentacji
Sprawdza, czy README jest zrozumiałe dla osoby spoza projektu, uzupełnia brakujące opisy, dba o język i strukturę. To rola idealna dla doktoranta, który dzięki temu uczy się szybko, jak ma wyglądać dobry zestaw danych. - Koordynator dostępu
Zajmuje się kwestiami formalnymi: kto ma prawo dostępu do danych nieprzetworzonych, jakie są ścieżki udostępniania wersji ograniczonych (np. po podpisaniu umowy o poufności), jak odpowiadamy na zewnętrzne prośby o dostęp. - Administrator techniczny
Dba o backupy, repozytorium kodu, wersjonowanie plików. Nie musi być „informatykiem z krwi i kości”, wystarczy osoba, która lubi porządek w plikach i nie boi się nowych narzędzi.
Jasno opisane role można potem przekopiować do kolejnych wniosków grantowych i regulaminów zespołu, dzięki czemu zarządzanie danymi przestaje być „czyjąś dobrą wolą”, a staje się częścią standardu pracy.
Od „ładnych plików” do replikowalnych analiz
Udostępnianie samych danych to dopiero połowa drogi. Druga połowa to możliwość odtworzenia głównych wyników – choćby w minimalnym zakresie. To właśnie tu wchodzi kod i pipeline analityczny.
- Skrypty zamiast „klikologii”
Analizy przeprowadzane ręcznie w interfejsie graficznym są trudne do odtworzenia po czasie. Nawet jeśli część pracy pozostaje „klikalna”, kluczowe etapy (czyszczenie, podstawowe tabele, wykresy) dobrze jest mieć w postaci skryptów w R, Pythonie, Stata czy innego narzędzia. Później wystarczy jeden komentarz nad blokiem kodu, by było jasne, który fragment odpowiada za którą figurę w artykule. - Minimalny „repro pack”
Nie zawsze da się (albo jest sens) publikować pełen pipeline z wszystkimi pobocznymi analizami. Można jednak przygotować pakiet minimalny: dane przetworzone, skrypt odtwarzający główne tabele i wykresy oraz krótką instrukcję uruchomienia. Dla wielu użytkowników to już ogromna wartość. - Kontenery i środowiska
Jeśli projekt używa specyficznych bibliotek lub wymaga konkretnej wersji R/Pythona, rozważ zapisanie pliku z opisem środowiska (np.requirements.txt,environment.yml, plik projektu w R) lub prosty kontener (Docker). Nawet jeśli użytkownik nie odtworzy środowiska w 100%, wie, jakie wersje oprogramowania były użyte. - Powiązanie z repozytorium kodu
Publiczny GitHub/GitLab z kodem może być powiązany z archiwalnym snapshotem w Zenodo (z DOI). W ten sposób masz i elastyczność rozwijania kodu, i stabilny punkt odniesienia, który można cytować w publikacjach.
Za każdym razem, gdy kończysz projekt, zadaj sobie jedno pytanie: czy ja sam/sama, patrząc na to za trzy lata, dałbym/dałabym radę odtworzyć główne wykresy w jeden dzień? Jeśli tak – jesteś już bardzo blisko pełnej replikowalności.
Strategie dla zespołów wieloośrodkowych i międzynarodowych
Gdy projekt obejmuje wiele instytucji lub krajów, chaos danych potrafi eksplodować. Z drugiej strony, właśnie takie projekty mają największy potencjał „globalnego repozytorium”, więc opłaca się poświęcić czas na dopracowanie zasad.
- Wspólny słownik od początku
Zamiast łączyć w ostatniej chwili różne nazwy zmiennych i skale odpowiedzi, ustal wspólne konwencje już na etapie projektowania narzędzi. Nawet prosty arkusz „master codebook” współdzielony między ośrodkami ratuje później setki godzin pracy. - Standard wymiany plików
Zdefiniuj jeden format transferu (np. CSV z konkretnym kodowaniem znaków i separatorem, plus osobny plik z metadanymi), zamiast pozwalać, by każdy ośrodek wysyłał dane w swoim ulubionym formacie. Jednorazowa inwestycja w prosty schemat importu/eksportu szybko się zwraca. - Jedno „źródło prawdy”
Gdy dane spływają z wielu miejsc, łatwo o sytuację, w której są cztery „aktualne” wersje zbioru. Warto umówić się, że finalna, skonsolidowana baza mieszka w jednym, jasno określonym repozytorium (np. instytucjonalnym), a wszystkie ośrodki odwołują się właśnie do niej. - Koordynator danych międzynarodowych
Osoba odpowiedzialna za spójność między ośrodkami – dopytuje o wątpliwe przypadki, reaguje, gdy któryś partner zmienia coś w narzędziach, ustala harmonogram dostarczania danych. Bez takiej roli duże konsorcja toną w mailach i rozbieżnych wersjach plików. - Uzgodniona polityka udostępniania
Zanim pojawi się pierwszy artykuł, dobrze mieć podpisane (choćby prostą umową) uzgodnienia: co idzie do publicznego repozytorium, co zostaje w archiwach zamkniętych, kto figuruje jako „data steward” i jak rozwiązuje się ewentualne spory o wtórne analizy.
Międzynarodowe projekty mogą stać się świetnym poligonem do zbudowania własnych, wysokich standardów – a przy okazji wizytówką zespołu w globalnym obiegu danych.
Małe kroki, duży efekt: od czego zacząć już przy następnym pliku
Przejście od lokalnego Excela do solidnego repozytorium to proces, nie jednorazowy skok. Nie trzeba od razu wdrażać wszystkich zasad i narzędzi – ważne, by każdy kolejny projekt był choć odrobinę lepiej poukładany niż poprzedni.
- Wybierz jeden minimalny standard, którego będziesz pilnować w każdym nowym badaniu (np. zawsze tworzę README i słownik zmiennych).
- Do obecnego projektu dodaj jedno nowe narzędzie lub praktykę: repozytorium kodu, prosty DMP albo regularne „data check-in”.
- Znajdź jeden dobry przykład zbioru danych z Twojej dziedziny w publicznym repozytorium i potraktuj go jako punkt odniesienia: co możesz skopiować, co zrobić podobnie lub lepiej.
- Załóż, że kolejne dane będą publiczne i zadawaj sobie pytanie „czy ktoś z zewnątrz to zrozumie?” przy każdej większej decyzji dotyczącej struktury pliku.
Im szybciej zaczniesz wprowadzać choć drobne zmiany w codziennych nawykach, tym prędzej Excel przestanie być wąskim gardłem, a stanie się tylko jednym z etapów na drodze do naprawdę użytecznego, globalnego obiegu danych.
Jak wybrać dobre repozytorium: od instytucjonalnego po globalne agregatory
Nawet najlepiej przygotowane dane nikomu nie pomogą, jeśli „utkną” w mało widocznym miejscu. Wybór repozytorium to decyzja strategiczna – wpływa na to, kto dane znajdzie, jak je zacytuje i jak długo będą bezpieczne.
- Repozytorium instytucjonalne
To często pierwszy, naturalny wybór: biblioteka lub dział IT oferuje przestrzeń z gwarancją długoterminowego przechowywania. Plusy: stabilność, wsparcie lokalne, zgodność z polityką uczelni. Minusy: mniejsza widoczność międzynarodowa, czasem ograniczone funkcje (np. brak łatwej wersjonowalności). - Repozytoria dziedzinowe
Dedykowane konkretnym typom danych: neuroobrazowanie, sejsmologia, genomika, ekonomia, dane społeczne. Zaletą są dopasowane metadane, znajome formaty i aktywna społeczność. Jeśli w Twojej dziedzinie istnieje „złoty standard” (np. ICPSR, PANGAEA, GEO), wybór jest prosty – użytkownicy wiedzą, gdzie szukać. - Repozytoria ogólne
Zenodo, Figshare, OSF, Dataverse i podobne platformy sprawdzają się, gdy brak repozytorium specjalistycznego lub dane są mocno interdyscyplinarne. Dają DOI, prosty interfejs i integrację z innymi narzędziami. Kluczem jest tu porządna dokumentacja – nikt za Ciebie nie „doda kontekstu dziedzinowego”. - Hybrydy i „warstwy”
Często najlepszym rozwiązaniem jest kombinacja: surowe dane w repozytorium instytucjonalnym (z mocnymi zabezpieczeniami), a przetworzone, zanonimizowane zbiory w repozytorium dziedzinowym lub ogólnym. Linki między warstwami są opisane w metadanych i README.
Dobrą praktyką jest przygotowanie krótkiej, wewnętrznej listy rekomendowanych repozytoriów dla zespołu – wtedy każdy nowy projekt ma start z wyższego poziomu.
Licencje i warunki korzystania: jak nie zablokować własnych danych
Nawet świetnie opisany zbiór danych może zostać „uwięziony” przez źle dobraną licencję. Tu nie chodzi o prawnicze wywody, tylko o dwie proste kwestie: co wolno użytkownikowi i co musi zrobić, gdy skorzysta.
- Licencje otwarte „defaultowo”
Dla większości zestawów badawczych sensownym punktem startu są licencje typu CC BY (uznanie autorstwa) lub CC BY-SA (uznanie autorstwa + share alike). Pozwalają na szerokie wykorzystanie, w tym komercyjne, pod warunkiem podania źródła. - Gdy trzeba ograniczyć
W sytuacjach bardziej wrażliwych – np. dane, które mogą zostać łatwo zlinkowane z innymi źródłami – lepiej użyć licencji z klauzulą NC (niekomercyjne) lub zastosować mechanizmy ograniczonego dostępu (wnioski o dostęp, rejestracja użytkownika). Zamiast zakazywać wszystkiego, precyzyjnie określ, na czym polega „fair use”. - Licencje na dane vs. licencje na kod
Kod i dane to dwie różne kategorie prawne. Dane „oznacz” np. CC BY, a kod – licencją programistyczną (MIT, Apache 2.0, GPL). Jasny rozdział ułatwia użytkownikom zrozumienie, co mogą integrować ze swoim oprogramowaniem. - Polityka cytowania
W README lub plikuCITATION.cffdopisz prostą, gotową do skopiowania formułę cytowania (z DOI i listą autorów). Im mniej zgadywania, tym większa szansa, że Twoje dane zostaną poprawnie zacytowane i policzone w metrykach.
Dobór licencji to dobry moment, by jasno powiedzieć światu: „chcemy, żebyście z tego korzystali” – i pokazać, na jakich zasadach.
Metadane, które naprawdę pomagają: od minimum do wersji „deluxe”
Metadane bywają postrzegane jako biurokracja. W praktyce to one decydują, czy ktoś zrozumie Twój zbiór bez wymiany dziesięciu maili. Można podejść do tego warstwowo.
- Warstwa podstawowa
Tytuł, streszczenie, data zbioru, autorzy z afiliacjami, słowa kluczowe, zasięg geograficzny, okres, jakiego dotyczą dane. To absolutne minimum, które powinno znaleźć się w każdym repozytorium, najlepiej zarówno w formularzu platformy, jak i w pliku README. - Warstwa techniczna
Informacje o formatach plików, kodowaniu znaków, jednostkach miary, zastosowanych standardach (np. ISO 8601 dla dat, EPSG:4326 dla współrzędnych). Krótka sekcja „Technikalia” w README rozwiązuje większość problemów z importem danych. - Warstwa metodologiczna
Opis narzędzi badawczych (kwestionariusze, protokoły, skrypty eksperymentalne), sposobu doboru próby, procedur kontrolnych. Tu dobrze sprawdza się załączony PDF z opisem metod albo link do preprintu/protokołu badania. - Warstwa dziedzinowa
Słowniki pojęć specyficznych dla danej nauki, mapowanie na istniejące standardy (np. słowniki ONT, klasyfikacje ICD, kodyfikacje branżowe). To moment, w którym Twój zbiór zaczyna „rozmawiać” z innymi danymi w skali globalnej. - Schematy standardowe
Jeśli w Twojej dziedzinie funkcjonują uznane standardy metadanych (np. Dublin Core, DataCite, DCAT, DDI, MIAME), choć częściowe ich użycie znacznie poprawia interoperacyjność. Nie musisz od razu wypełniać całej rozbudowanej specyfikacji – zacznij od kluczowych pól.
Dobrym nawykiem jest traktowanie metadanych jak „reklamy” Twojego zbioru: mają szybko przekonać kogoś z zewnątrz, że warto po ten materiał sięgnąć.
Automatyzacja drobnych zadań: małe skrypty, duże oszczędności
Duża część problemów z danymi to powtarzalne, nużące czynności. Jeśli robisz coś trzeci raz w identyczny sposób, to sygnał, że tę czynność można zautomatyzować.
- Generator struktury projektu
Prosty skrypt w bashu, R czy Pythonie, który tworzy drzewko katalogów (raw/,processed/,code/,docs/,metadata/) i wrzuca szablony plików README. Dwie linijki kodu, a start każdego nowego projektu jest spójny. - Automatyczne raporty kontroli jakości
Skrypt, który po każdym imporcie danych generuje podstawowe statystyki: liczba braków, zakresy wartości, rozkłady kluczowych zmiennych, listę potencjalnych błędów (np. daty z przyszłości). Taki raport można zapisywać do HTML/PDF i archiwizować jako część dokumentacji. - Szablony kodu
Fragmenty kodu do najczęstszych zadań – np. standaryzacja nazw zmiennych, konwersja formatów dat, łączenie danych z wielu arkuszy. Wspólna biblioteka snippetów w zespole to szybki sposób na wyrównanie standardów i skrócenie czasu pracy. - Integracja z CI/CD
Jeśli korzystasz z GitHub/GitLab, proste workflow (np. GitHub Actions) może przy każdym pushu uruchamiać testy kodu, budować minimalny raport z analizy lub sprawdzać spójność metadanych. To nie musi być nic zaawansowanego – choćby kontrola, czy wszystkie pliki wprocessed/mają aktualny opis.
Automatyzacja nie zastąpi myślenia, ale świetnie przejmuje nudną część, dzięki czemu możesz skupić się na sensie danych, a nie na ręcznym poprawianiu przecinków.
Od pojedynczego projektu do „portfolio danych” zespołu
Kiedy pojawia się kilka, kilkanaście projektów, dane zaczynają żyć swoim życiem: ktoś prosi o porównanie badań sprzed kilku lat, ktoś inny chce zrobić metaanalizę. Wtedy przydaje się myślenie nie o jednym zbiorze, ale o całym portfolio.
- Spójne nazewnictwo między projektami
Jeśli w kolejnych badaniach mierzysz podobne zjawiska, próbuj zachować identyczne nazwy kluczowych zmiennych (lub przynajmniej mapowanie). Ułatwia to łączenie danych, ale też komunikację: nowa osoba w zespole szybciej się odnajduje. - Centralny katalog danych zespołu
Może to być prosty arkusz lub mała baza: lista projektów, linki do repozytoriów, kontakt do „data stewarda”, typy danych, status udostępniania. W większych grupach to często najbardziej używany dokument. - Powtarzalne szablony dokumentacji
Jeśli każde badanie ma własny, unikalny styl README, zespół szybko się gubi. Standaryzacja (sekcje: „Cel danych”, „Struktura plików”, „Metodologia”, „Ograniczenia”, „Cytowanie”) sprawia, że użytkownik wie, czego się spodziewać. - Strategia wersjonowania w skali makro
Nie tylko pojedyncze zbiory, ale całe projekty mogą mieć swoje „wydania” – np. „Fala 1”, „Fala 2”, „Update po korekcie błędu w narzędziu”. Opisanie tych zmian w katalogu zespołu i nadanie im DOI porządkuje historię badań.
Takie portfolio danych to argument nie tylko naukowy, ale i wizerunkowy: pokazuje, że zespół traktuje dane jak trwały zasób, a nie produkt uboczny pojedynczych grantów.
Budowanie kultury otwartości: ludzie, a nie tylko narzędzia
Żadne repozytorium ani DMP nie zadziałają, jeśli zespół nie widzi w tym sensu. Zmiana zaczyna się od drobnych sygnałów i nawyków, które pokazują, że dane są wspólną odpowiedzialnością.
- Regularne „data review”
Krótkie spotkania, na których zespół przegląda postępy nad danymi: co już jest uporządkowane, co wymaga decyzji, jakie problemy się pojawiły. Traktuj to jak code review, tylko dla struktury zbiorów i dokumentacji. - Nagradzanie dobrych praktyk
Autor najlepiej udokumentowanego zbioru, wzorcowe README, świetny pipeline – to wszystko można wyróżniać choćby symboliczną nagrodą w zespole, wymienieniem w raporcie rocznym, rekomendacją przy stypendium. Sygnał „to się liczy” działa lepiej niż dowolne regulaminy. - Włączanie studentów i doktorantów
Młodsze osoby w zespole często szybciej „łapią” nowe narzędzia i standardy. Włącz je w zadania związane z danymi – od prostych porządków po współprojektowanie struktury repozytorium. Zyskują realne kompetencje, a zespół – dodatkowe ręce do pracy. - Transparentność wewnętrzna
Udostępnienie większości roboczych danych i kodu całemu zespołowi (z sensownymi ograniczeniami dla informacji wrażliwych) sprawia, że łatwiej wychwycić błędy i szybciej reagować na problemy. Zamknięte „szuflady” są największym wrogiem jakości.
Kultura otwartości nie wymaga rewolucji – zaczyna się od kilku osób, które pokazują, że uporządkowane, dostępne dane ułatwiają im codzienną pracę.
Współpraca z bibliotekarzami, informatykami i prawnikami: wykorzystaj specjalistów
Wiele zespołów badawczych próbuje samodzielnie rozwiązać wszystkie kwestie związane z danymi. Tymczasem na uczelniach i w instytutach są ludzie, którzy właśnie po to tam są, by pomóc.
- Bibliotekarze i specjaliści informacji naukowej
Świetnie orientują się w repozytoriach, standardach metadanych, wymaganiach wydawców i funderów. Mogą pomóc dobrać repozytorium, przygotować szkielet metadanych, a czasem nawet przeprowadzić krótkie szkolenie dla zespołu. - Działy IT
Od nich zależy infrastruktura: serwery, backupy, dostęp zdalny, narzędzia do wersjonowania, a czasem nawet administracja instytucjonalnym Dataverse’em czy OSF-em. Warto jasno powiedzieć, czego potrzeba – często rozwiązanie już istnieje, tylko nikt o nim nie wie. - Prawnicy i działy transferu technologii
Pomagają przy umowach licencyjnych, zgodach na przetwarzanie danych, klauzulach poufności, polityce komercjalizacji. Lepiej poświęcić godzinę na konsultację niż później martwić się, czy wolno udostępnić dane, na których stoi połowa projektu. - Koordynacja między specjalistami
Największe korzyści pojawiają się, gdy te trzy grupy współpracują przy jednym projekcie: prawnik pomaga ustalić, co można otworzyć, bibliotekarz przygotowuje strategię udostępniania i metadane, a IT dba o techniczne wdrożenie. Ty skupiasz się na nauce.
Sięgnięcie po wsparcie ekspertów z otoczenia instytucji to szybki sposób, by Twoje dane „awansowały” z lokalnego pliku Excela do zasobu, który spełnia światowe standardy.
Najczęściej zadawane pytania (FAQ)
Dlaczego trzymanie danych tylko w Excelu to zły pomysł?
Plik w Excelu na jednym komputerze jest wygodny tylko do momentu, gdy projekt jest mały i pracujesz sam(a). Gdy pojawiają się współautorzy, kolejne analizy i wersje, szybko robi się chaos: mnożą się pliki „final_v3_ostateczne”, nikt nie wie, który jest aktualny, a po kilku miesiącach trudno odtworzyć, co dokładnie zostało zrobione.
Takie dane są też praktycznie niewidoczne dla innych badaczy: nie mają DOI, nie są indeksowane przez wyszukiwarki naukowe, nie da się ich łatwo zacytować ani ponownie wykorzystać. To jednorazowy wysiłek, który kończy się wraz z publikacją artykułu, zamiast pracować na Twoją widoczność i kolejne współprace.
Jakie są realne korzyści z udostępniania danych badawczych?
Najbardziej odczuwalne korzyści to większa widoczność i cytowalność. Zestaw danych z DOI, umieszczony w repozytorium, może być cytowany niezależnie od artykułu – zyskujesz więc dodatkowe rekordy cytowań i lepszą ekspozycję w Google Scholar czy OpenAIRE.
Druga duża korzyść to nowe kontakty i współprace. Przejrzyście opisany zbiór działa jak wizytówka: inni badacze chętniej piszą z propozycją wspólnych analiz, projektów porównawczych czy replikacji. Dobrze przygotowane dane skracają też dyskusje z recenzentami – zamiast tłumaczyć się z przejrzystości, po prostu podajesz link do repozytorium.
Gdzie najlepiej udostępniać dane badawcze: Zenodo, OSF, Figshare czy GitHub?
Zenodo, OSF i Figshare to repozytoria ogólnego przeznaczenia – pozwalają zdeponować dane, dokumentację i materiały towarzyszące, a przy tym nadają DOI i oferują wybór licencji (np. CC BY, CC0). Różnią się szczegółami interfejsu i dodatkowymi funkcjami, ale wszystkie są akceptowane przez większość czasopism i grantodawców.
GitHub świetnie sprawdza się do kodu, skryptów, notatników Jupyter czy RMarkdown i wersjonowania pracy nad analizami. Często stosuje się zestaw: dane z główną dokumentacją w Zenodo/OSF/Figshare, a kod i pipeline’y analityczne w GitHubie, połączone wzajemnymi linkami. Wybierz taki układ, który faktycznie będzie Ci wygodnie utrzymywać.
Jakie kroki trzeba wykonać, żeby zamienić Excela w profesjonalne repozytorium danych?
Prosty „Excel roboczy” warto przekształcić w uporządkowany zbiór, który ktoś z zewnątrz naprawdę zrozumie. Podstawowa linia działań wygląda najczęściej tak:
- oczyszczenie danych i eksport do otwartego formatu (np. CSV zamiast xlsx),
- przygotowanie słownika zmiennych (opis kodów, jednostek, znaczenia kolumn),
- dodanie pliku README z opisem projektu, struktury plików i sposobu zbierania danych,
- wybór licencji (np. CC BY lub CC0) i odpowiedniego repozytorium,
- depozyt danych, nadanie DOI i dodanie linku/DOI do artykułu.
To seria powtarzalnych kroków – raz wypracowany schemat możesz stosować w kolejnych projektach z dużo mniejszym wysiłkiem.
Jak zaplanować udostępnianie danych, żeby spełnić wymagania grantodawców i czasopism?
Kluczowy moment to faza planowania projektu. W planie zarządzania danymi (DMP) opisz z wyprzedzeniem: jakie dane powstaną, które z nich będą otwarte, jaki poziom anonimizacji zastosujesz, jak będziesz przechowywać dane w trakcie projektu oraz w jakim repozytorium je ostatecznie zdeponujesz i na jakiej licencji.
Dzięki temu, gdy czasopismo lub agencja grantowa poprosi o „data availability statement” czy link do zbioru, nie musisz gorączkowo przeglądać katalogu z plikami „final_na_recenzje_poprawione”. Masz już przygotowaną ścieżkę od surowych danych do otwartego, uporządkowanego zasobu.
Jak poradzić sobie z RODO i danymi wrażliwymi przy otwartym udostępnianiu?
Przy danych osobowych najpierw planuje się poziom anonimizacji, a dopiero potem sposób udostępnienia. Zazwyczaj oznacza to usunięcie lub zakodowanie identyfikatorów, połączenie rzadkich kategorii oraz rezygnację z informacji, które mogłyby umożliwić identyfikację osób przy małych próbach.
W DMP i dokumentacji danych jasno opisz, które dane są w pełni otwarte, które dostępne na wniosek (np. po podpisaniu umowy), a których nie można udostępnić wcale. Repozytorium może przechowywać także same metadane i dokumentację, a dostęp do pełnego zbioru odbywa się na bardziej kontrolowanych zasadach. Dzięki temu łączysz wymogi etyczne i prawne z ideą otwartej nauki.
Co grozi, jeśli nie mam planu zarządzania danymi i nie udostępniam ich w repozytorium?
Brak planu oznacza nie tylko mniej cytowań. Po kilku miesiącach możesz mieć kłopot z własnymi danymi: niejasne nazwy zmiennych, brak informacji o jednostkach, niedokumentowane brakujące wartości. Technicznie dane istnieją, lecz praktycznie nie da się ich sensownie użyć – ani przez Ciebie, ani przez innych.
Dochodzi też ryzyko konfliktów w zespole (różne wersje tego samego pliku) i problemy w recenzji, gdy recenzent dostaje nieczytelny, chaotyczny arkusz. Jasny plan i depozyt w repozytorium działają jak zabezpieczenie reputacji – pokazują, że nad danymi panujesz i traktujesz je jako pełnoprawny wynik badań.
Najważniejsze punkty
- Trzymanie danych w pojedynczym pliku Excela na dysku zamyka je przed światem: utrudnia współpracę, wersjonowanie, cytowanie i ponowne użycie, a po czasie często uniemożliwia nawet własny powrót do wyników.
- Udostępnienie danych w stabilnym repozytorium z DOI, licencją i opisem zamienia zwykły arkusz w pełnoprawną publikację danych, która może być wyszukiwana, cytowana i wykorzystywana w meta-analizach czy projektach porównawczych.
- Otwarte, dobrze opisane dane realnie zwiększają widoczność badacza (dodatkowe cytowania), przyciągają nowych współpracowników i usprawniają recenzje, bo recenzenci mogą łatwo zweryfikować analizy zamiast dopytywać o szczegóły.
- Coraz silniejsze wymagania uczelni, czasopism i grantodawców dotyczące DMP, polityk „data availability” i deponowania danych oznaczają, że brak przygotowanej ścieżki od razu przekłada się na stres, chaos i nerwowe działania „na ostatnią chwilę”.
- Brak planu dla danych generuje konkretne koszty: konflikty wersji w zespole, ryzyka prawne (np. przy danych wrażliwych), utratę zaufania recenzentów i współpracowników oraz sytuacje, w których formalnie istniejące dane są praktycznie bezużyteczne.
- Nawet mały, „niepozorny” plik Excela można stosunkowo łatwo przekształcić w wartościowy zasób (CSV, słownik zmiennych, opis projektu, repozytorium), który otwiera drogę do międzynarodowych kontaktów i kolejnych publikacji.






