Ewaluacyjne ruiny, czyli dane i wspomnienia uczestnika zdarzeń

Opublikowany w numerze 1 Kwartalnika Historycznego, rocznik 2024 (tak, tak, dopiero ukazało się nasze wiodące czasopismo naukowe) artykuł prof. Jana Pomorskiego jest chyba pierwszą próbą przedstawienia danych stojących za wynikami ewaluacji w konkretnej dziedzinie, jak również odsłonięcia – skromnego, ale jakże pouczającego – fragmentu okoliczności decydujących o propozycjach KEN dotyczących kategorii dla poszczególnych zespołów badaczy. W tym przypadku dla tych związanych z dyscypliną historia w uczelniach i jednostkach PAN. Z jednej strony otrzymujemy solidny zestaw informacji skwantyfikowanych i porządkujących aktywność poszczególnych zespołów w popularyzacji swoich badań, poszukiwaniu środków na te badania i oddziaływaniu na otoczenie. Z drugiej strony – czasami lekko między wierszami – widzimy skalę nieporozumienia, jakim jest ewaluacja jakości badań przeprowadzana siłami polskiego środowiska naukowego. Nawet bez demoralizujących ingerencji ówczesnego ministra Czarnka. Nie trzeba się zgadzać ze słowami Autora – mam do nich ogromny dystans w wielu kwestiach, pamiętając jego zaangażowania w poprzednich latach i porównując te słowa z przedstawianymi danymi – ale absolutnie warto docenić trud, jaki włożył w przygotowanie danych. Dla bieżącej ekipy ministerialnej powinna to być lektura obowiązkowa. Ale tak nie będzie.

Zacząć wypada od banalnej konstatacji, że cała ewaluacja dyscyplin humanistycznych opiera się na nieporozumieniu. Jest nim fetyszyzowanie wskaźników publikacyjnych w czasopismach ujętych w bazach danych konsorcjum Elsevier. Po pierwsze dlatego, że czasopisma nie były i nie są w humanistyce najważniejszym nośnikiem informacji naukowej. Co najwyżej pod presją biurokratów stają się poręcznymi, łatwymi w obsłudze dla biurokracji dzięki zabiegom prywatnych dostarczycieli danych narzędziami ujednolicania i prywatyzowania dyskursu naukowego. Rezygnacja z bazy ERIH (baza ERIH+ ma zupełnie inny charakter) jako wyznacznika jakości publikacji humanistycznych powinna dawno dać decydentom do myślenia, że może jednak coś jest na rzeczy? Że może jednak czasopisma w humanistyce odgrywają inną rolę, niż monografie? To okazało się jednak za trudne nie tylko u nas. Dodajmy, że mit czasopism z powodzeniem jest rozwijany także dziś, gdy minister i jego ludzie nie dostrzegają monografii ani w kontekście dostępu do informacji naukowej, ani narzędzia transferu tej informacji. W minionej ewaluacji obliczenia uczynione z pomocą bazy Scimago posłużyły nawet do wyznaczenia pozycji polskiej historiografii w świecie (14. miejsce). Łza się w oku kręci, choć chętnie poznałbym prace, które wyszły spod pióra polskich historyków i wstrząsnęły w minionych pięciu latach historiografią światową. Profesor Pomorski szczerze pisze, co zadecydowało o tak wysokiej pozycji dzieł polskich historyków w światowym dyskursie zdaniem KEN:

Przede wszystkim ORCID i masowe zakładanie przez polskich historyków profili na najbardziej popularnych portalach dla naukowców: Research Gate, Academia.edu i Google Scholar. I zamieszczanie na nich skanów swoich wcześniejszych publikacji naukowych. Apelowałem o to na kolejnych spotkaniach dyrektorów i dziekanów instytutów czy wydziałów historycznych, tłumacząc, że to sztuczna inteligencja przeszukuje bazy danych i nie tyle język publikacji ma znaczenie, ile jej dostępność w Internecie. I to na koniec zaprocentowało.

Wszystko jasne, prawda?

Kolejnym nieporozumieniem jest założenie, że przyjęte standardy pomiaru będą obowiązywać wszystkich niezależnie od uzyskanych wyników. Taka jest przecież zasada używania narzędzi. Jasne, przeskalowanie narzędzia przez ministra Czarnka uczyniło z niego rzecz samą w sobie wątpliwej jakości. Ale nie ma obawy, my także potrafimy swoje do tego dołożyć. Po pierwsze można włączyć do dyscypliny mającej swoje zwyczaje publikacyjne naukowców z pokrewnej dyscypliny publikujących w czasopismach wyżej punktowanych niż przeciętna w historii. Ot, gra w ciuciubabkę podobna do redukowania liczby pracowników wnoszących swój wkład do ewaluacyjnego wyniku. Gra w grę, bez wiary w sensowność narzędzia i wyniku. Tyle, że KEN też uznał, że warto grać w grę. Jak pisze profesor Jan Pomorski – cytat długi, ale wart czytania! –

Siedziałem cały dzień nad danymi OPI, przeliczając wszystko raz jeszcze samodzielnie. Ale wynik się nie zmieniał. Jak w tej sytuacji wyznaczyć wartości referencyjne? Czy historia na Uniwersytecie Jagiellońskim — jeśli trzymać się sztywno standardów30 — ma utracić prawa do doktoryzowania, bo ze swoimi 203,47 punktami nie osiągnie B+ w K1? Można wprawdzie jeszcze liczyć, że w K2 i K3 zagrożone podmioty poprawią swój wynik, ale co, jeśli tak się nie stanie? Oto jeden z dylematów, przed jakimi wówczas stanąłem. A było ich przecież znacznie więcej. Przyznaję, że była to jedna z najtrudniejszych decyzji w moim życiu, podjęta po całkowicie nieprzespanej nocy. Żaden wybór — oględnie mówiąc — nie był dobry. Na szali była z jednej strony wiarygodność procesu ewaluacji w sytuacji, gdy podmioty dotąd uważane za najlepsze stracą uprawnienia, a z drugiej pilnowanie jakości samego procesu oceny, na który wspólnie przecież się zgodziliśmy. Ostatecznie po długim namyśle zdecydowałem się rekomendować KEN, aby to wynik UJ wyznaczał dolny przedział kategorii B+ w K1 i od niego zacząłem wyliczać możliwe wartości referencyjne dla kolejnych kategorii. Udało się to rozwiązanie wybronić na posiedzeniu plenarnym, powołując się między innymi na wysoką międzynarodową pozycję historii i sam przypadek UJ.

Krótko mówiąc – UJ nie sprostał standardom wyznaczonym prawem, więc prawo musiało się nagiąć do UJ. Szczere bohaterstwo Autora deliberującego nad tym, czy można oszukać tych, którzy uwierzyli w prawo, czy pogrążyć UJ, który nie był w stanie sprostać tym standardom względnie nie chciał pracować według reguł przyjętych dla pozostałych jednostek, musi budzić podziw. I zazdrość, bo jest świadectwem czystego sumienia, choć pisze o nim Autor z pewnym  niesmakiem.

Ale dla mnie, prostego profesora, jest dowodem na to, że żadne reguły nie będą miały znaczenia w ocenie jakiejkolwiek jakości, dopóki oceniają ją sami zainteresowani. Każdy z nas żyje w sieci społecznych powiązań. Im wyżej w hierarchii tym więcej poklepywań po plecach i usług wzajemnych. Jeśli prawo naginamy dla pożytku jedynych ze szkodą dla wszystkich (bo przecież wypaczamy jakikolwiek obraz możliwy do uzyskania przyjętym narzędziem), to zgódźmy się – nie powinniśmy być podmiotami posługującymi się tym prawem.

Dane liczbowe zestawione przez Autora są również interesujące, choć brak danych jakościowych (chociażby pełnych recenzji kryterium 3 czy korelacji grantów z kryterium 2 i publikacji będących ich efektem) pozostawia niedosyt. Zachęcam do ich oglądu, a tu jedynie zwrócę uwagę na dwa elementy – Uniwersytet Warszawski, którego wartość grantów dystansuje wszystkie jednostki parające się historią w Polsce, nie przedstawił danych o publikacjach wskazujących na korelację między zainwestowanymi środkami a uzyskanymi rezultatami. Również wpływ na otoczenie społeczne nie odpowiada wysokości pozyskanych środków przez tę jednostkę. To jednak tylko jeden element, który wypadałoby zestawić ze wspomnianym wyżej rezultatem grantów – może publikacje wymykają się kulawemu systemowi oceny ewaluacyjnej, a wzbogacają naszą i światową kulturę? Kto wie… Z drugiej strony pouczające jest, że moja rodzima jednostka, UWr., w dyscyplinie historia uzyskał kategorię A+ mając mało imponujący wskaźnik pozyskanych grantów (7-krotnie mniej w przeliczeniu na osobę niż UW, dwukrotnie mniej, niż UAM), więcej niż średni rezultat w kategorii wpływu społecznego (21. miejsce na 30 podmiotów!!!), przeciętny rezultat w zakresie publikacji w czasopismach i monografiach z listy 100-punktowej. Zaważyły monografie i monografie zbiorowe opublikowane w wydawnictwach z listy 300-punktowej, co miało zwrócić uwagę recenzentów zagranicznych. Uwypukla to tylko, że nauka jest domeną jednostek (które publikowały te monografie), próba ujęcia jej w ramy zespołowe w humanistyce napotyka na duże trudności.

Nie wierzę, żeby ministerstwo wyciągnęło szersze wnioski z tego artykułu. Miało dość czasu na przeanalizowanie wyników ewaluacji. Jeśli to zrobiło, to milczy, a jego działania temu nie odpowiadają. Bo i po co miałoby wnioski wyciągać? Ewaluacja tzw. jakości badań to dziś narzędzie pokraczne służące uzasadnieniu dzielenia wątłych zasobów finansowych i podziałowi równie wątłego kapitału prestiżu, co każdy minister chętnie przejmie zasłaniając się wolą wspólnoty. Artykuł prof. Jana Pomorskiego odsłania skalę nieporozumienia, jakim była pod wpływem korupcjogennej działalności ministra Czarnka miniona ewaluacja. A przecież jej wyniki mają się dobrze, może jeszcze przed kolejną ewaluacją poznamy w wyniku spraw sądowych kolejne dyscypliny A+?

Nauka obroni się sama, bez dwóch zdań, w dyskursie światowym. Ale wpływ korupcji świata nauki dla poziomu kultury polskiej, dyskursu publicznego, edukacji młodzieży jest trudny do zmierzenia. Ewaluacja tylko pogłębia skutki tego smutnego spektaklu.