Bibliometrics

W Bibliometria jest meta-nauka trwa nauka przedmiotu badania. Dotyczy trzech elementów działalności naukowej: jej nakładów, wyników i oddziaływań.

Bibliometrię można zdefiniować jako „zastosowanie matematyki i metod statystycznych do książek, artykułów i innych środków komunikacji” (Beauvens, 1969). Bardziej współczesna definicja, łącząca bibliometrię, naukometrię wyników i infometrię, byłaby terminem „ilościowej analizy działalności naukowej i sieci”. Ta dyscyplina, która opiera się na statystycznej analizie danych i sieci, ma komponent poznawczy, w interakcji z dziedzinami, których przedmiotem są nauki i środowiska naukowe (ekonomia wiedzy, socjologia nauki, epistemologia , historia nauki itp.) oraz z informatyką. Zawiera komponent operacyjny, związany z oceną, pozycjonowaniem aktorów i naukowym zarządzaniem. W tym drugim przypadku badania bibliometryczne umożliwiają kwantyfikację komunikacji jednostki lub grupy, nie tylko pod względem objętości, ale także widoczności, wpływu, partnerstwa, integracji w sieci.

Najbardziej kontrastowe nurty socjologiczne, od funkcjonalizmu RK Mertona po radykalne nurty socjologii lat 80. w zastosowaniu do badań „aktorów” (silny program, nauki ścisłe , socjologia przekładu, która stała się teorią aktora-sieci, ANT), zgadzam się co do jednej rzeczy, centralnej roli publikacji w życiu naukowym. Podstawową hipotezą naukometrii jest rozpoznanie w śladach bibliometrycznych (publikacjach, cytatach) i powiązanych sieciach zwierciadła działalności naukowej. Poza tym wspólnym funduszem pojawia się duża różnorodność praktyk w zakresie publikacji i cytowania, w zależności od dyscyplin lub typów badań.

Metody bibliometryczne można przenosić mutatis mutandis na dowolne skodyfikowane wyjścia z systemu nauczania i badań (rozprawy, kontrakty badawcze, takie jak projekty europejskie w programach ramowych). W przypadku innych wymiarów działalności badawczej (dostarczanie baz danych obserwacyjnych, tzw. Szarej literatury, prac eksperckich itp.), Dostęp do danych lub ich niski stopień kodyfikacji utrudniają zadanie.

Fundamenty historyczne

Korzenie bibliometrii i scientometrics z początku XX th  wieku w Europie i Ameryce Północnej. Do lat 60. wspierała bibliotekarzy w zarządzaniu zbiorami i badaniach dokumentalnych. W drugiej części XX th  century widział utworzenie instytucji ( Institute for Scientific Information , radach naukowych itp) wspieranie rozwoju wskaźników dla nauki i dlatego rozwój tej dyscypliny. Równocześnie wykładniczy wzrost wolumenu prac naukowych sprzyja ich katalogowaniu i lokalizowaniu.

Publikacja Little Science, Big Science , autorstwa fizyka i historyka nauki Dereka de Solla Price , w znacznym stopniu przyczyniła się do krystalizacji dyscypliny bibliometrycznej w latach sześćdziesiątych XX wieku. strukturalne, polityczne i społeczne właściwości nauki.

W tym samym czasie chemik i dokumentalista Eugene Garfield opracował pomysł wykorzystania cytatów obecnych w artykułach naukowych, to znaczy odniesień do innych artykułów, do połączenia tych artykułów. W 1955 roku opublikował artykuł w czasopiśmie Science , w którym zaproponował opracowanie indeksu cytowań naukowych, takich jak te, które istniały już w dziedzinie prawa w Stanach Zjednoczonych. Joshua Lederberg , genetyk laureat Nagrody Nobla, jest promotorem projektu, a fundatorem jest National Institutes of Health and National Science Foundation . Pod koniec lat pięćdziesiątych XX wieku wprowadzono prototyp w dziedzinie genetyki, a następnie w 1960 roku Garfield założył pierwszy indeks cytowań na dużą skalę: Science Citation Index . Indeks uruchomiony w 1963 r. Obejmuje tylko nauki przyrodnicze i medyczne. W 1973 r. Opublikowano Social Science Citation Index , aw 1975 r. - Arts and Humanities Citation Index . Te główne indeksy zostały później dodane przez Conference Proceedings Citation Index w 1990 r., Book Citation Index w 2008 r., Data Citation Index w 2012 r. oprócz różnych indeksów regionalnych.

W międzyczasie, w 1978 r., Opublikowano czasopismo Scientometrics - An International Journal for all Quantitative Aspects of the Science of Science, Communication in Science and Science Policy , autorstwa węgierskiego chemika Tibora Brauna.

W 2004 r. Utworzenie indeksu cytowań Scopus przez firmę Elsevier położyło kres monopolowi Web of Science , nowoczesnej wersji indeksu cytowań naukowych , obecnie sprzedawanej przez Clarivate Analytics .


Podstawy teoretyczne

Statystyczne prawidłowości

Pierwsze teorie bibliometryczne ujawniają różne asymetrie w produkcji naukowej. Odnoszą się do różnych prawidłowości statystycznych, które empirycznie zaobserwowano między 1926 a 1935 rokiem: prawa Lotki, prawa Bradforda i prawa Zipfa .

Teorie kumulacji korzyści

Drugi zestaw teorii bibliometrycznych wyjaśnia skumulowane korzyści w produkcji naukowej: efekt Mateusza , preferencyjne przywiązanie i efekt Matyldy .

Kilka innych badań potwierdziło rolę kumulacji korzyści w nauce: częściej cytowani są badacze, którzy są związani z prestiżowymi instytucjami (nawet przy uwzględnieniu innych zmiennych społeczno-demograficznych), cytowane są artykuły, które pojawiają się w najpopularniejszych czasopismach o większej renomie więcej niż tych, które pojawiają się w niżej ocenianych czasopismach (ponownie kontrolujących inne zmienne), a najczęściej cytowani badacze (a także publikacje) są bardziej skłonni do dalszego wzrostu ich cytowań. nieliniowe niż rzadziej cytowani.

Teorie Bourdieu

Teorie Bourdieu dotyczące kapitału dostarczają trzeciego zestawu teorii bibliometrycznych. Jak zauważają Larivière i Sugimoto, „Teorie Bourdieusa są niezbędne do zrozumienia wymiany dóbr symbolicznych na rynku uniwersyteckim, na którym współdziałają ze sobą różne formy kapitału”. Wśród tych form kapitału:

Teorie semiotyczne

Wreszcie bibliometria zapożycza pewne teorie z semiotyki.

Definicje i miary

Wkład w badania

Z bibliometrycznego punktu widzenia wkład w badania jest definiowany i mierzony przez autora. Praktyki przypisywania statusu autora (kredytu, odpowiedzialności) różnią się w zależności od trzech czynników: dyscyplin, specjalizacji i krajów. W szczególności różnice dyscyplinarne wyrażają się w naukach społecznych i humanistycznych (gdzie pisanie jest jedynym wkładem prowadzącym do statusu autora), fizyce wysokich energii (gdzie wszyscy członkowie zespołu badawczego są wymieniani jako autorzy) oraz dyscyplinach laboratoryjnych (gdzie kolejność pojawiania się na liście autorów jest wskaźnikiem wkładu i statusu).

Taksonomia CRediT wyróżnia czternaście różnych form wkładu: konceptualizacja, przechowywanie danych, analiza formalna, pozyskiwanie finansowania, dochodzenie, metodologia, administracja projektem, zasoby, oprogramowanie, nadzór, walidacja, wizualizacja, pisanie (wersja oryginalna) i pisanie (przegląd i edycja) . Został przyjęty przez różnych redaktorów (American Association of Petroleum Geologists, BMJ Open Science, British Psychological Society , Cell Press , Dartmouth Journal Services, De Gruyter Open, Duke University Press , eLife , Elsevier , Evidence Based Communications, F1000 Research , Geological Society of London , Health & Medical Publishing Group, International Centre of Insect Physiology and Ecology, The Journal of Bone & Joint Surgery, KAMJE Press, Lippincott Williams & Wilkins, MA Healthcare, MIT Press , Oman Medical Specialty Board, Oxford University Press , Public Library of Science (Plos), SAE International , SLACK Incorporated, Springer , Springer Publishing Company, Wiley VCH i Wolters Kluwer ), jedna instytucja ( University of Glasgow ), niektórzy integratorzy (Allen Press / Peer Track, Aries Systems / Redakcja, Coko Foundation / xPub and River Valley / ReView) oraz punkty sprzedaży (Gates Open Research, HRB Open Research i Wellcome Open Research).

Istnienie nieetycznych praktyk (autorstwo widmo, autorstwo honorowe) odzwierciedla nierówności w ustalaniu kryteriów autorstwa ( efekt Mateusza , efekt Matyldy ).

Produkcja badawcza

Silnie powiązany z praktykami przypisywania statusu autora, wyniki badań są definiowane i mierzone w kategoriach ilości wyników przypadających na jednostkę badawczą (osoby, grupy, zakłady itp.). Jedynie oryginalne teksty i artykuły przeglądowe są uważane za cytowany elementów z Web of Science , która stanowi granicę wskaźników produkcyjnych.

Larivière i Sugimoto identyfikują trzy różne metody liczenia, które są silnie skorelowane na poziomie makro (pomimo silnych różnic dyscyplinarnych):

Współpraca badawcza

Ściśle związana z produkcją, współpraca badawcza jest definiowana i mierzona na podstawie relacji współautorów (współ-podpisów) na różnych poziomach agregacji. Istnieją dwie grupy wskaźników współpracy: te oparte na proporcji artykułów powiązanych z więcej niż jedną jednostką z jednej strony i te oparte na średnich lub medianach z drugiej strony. Ta ostatnia grupa wskaźników umożliwia uwzględnienie liczebności zespołów (średnia / mediana liczby autorów dla zbioru artykułów) lub międzynarodowy charakter zespołów badawczych (średnia / mediana liczby krajów przypadających na artykuł).

Z bibliometrycznego punktu widzenia nie ma rozróżnienia między współpracą a współdziałaniem.

Larivière i Sugimoto zauważają, że praktyki współpracy rozwijają się we wszystkich dziedzinach nauki. W mniejszym stopniu kojarzą ten wzrost z bezwzględnym wzrostem współpracy, niż ze zmianą praktyk uznawania pracy naukowej i związanej z nią odpowiedzialności.

Interdyscyplinarność

Definicja i pomiar interdyscyplinarności opiera się na klasyfikacjach dyscyplinarnych. Wskaźniki opierają się na wspólnych praktykach między jednostkami dyscyplinarnymi (każdy autor jest powiązany z dyscypliną), z jednej strony, oraz na piśmiennictwie i cytatach (każdy dokument odnosi się do dokumentów opublikowanych w innych dyscyplinach lub jest cytowany w dokumentach opublikowanych w innych dyscyplinach), z drugiej strony.

Interdyscyplinarność pozostaje pojęciem trudnym do zmierzenia, a dane są stosunkowo niedostępne, szczególnie w naukach społecznych i humanistycznych.

Wpływ badań

Wpływ badań jest definiowany i mierzony na podstawie cytowań, chociaż to, czy artykuł jest często cytowany, niewiele mówi o jego jakości (aktualności, przydatności dla szerokiego grona odbiorców itp.). Idea ta opiera się w szczególności na socjologii strukturalno-funkcjonalistycznej Mertona , która charakteryzuje naukę z punktu widzenia jej uniwersalizmu, sprawiedliwości i samoregulacji. W tej dziedzinie i w tej społeczności naukowcy, „którzy najlepiej spełnili swoją rolę”, są nagradzani ( system nagród ), gdy są rozpoznawani, a zatem cytowani przez swoich kolegów.

Taką wizję kluczowej roli cytatów odnajdujemy także, z odwrotną interpretacją, u socjologa nauki Bruno Latoura , który podkreśla retoryczne strategie pisania naukowego oraz centralną rolę cytatów wspierających i potwierdzających dyskurs.:

„Obecność lub brak odniesień, cytatów i przypisów jest tak pewnym znakiem powagi tekstu, że można częściowo przekształcić fakt w fikcję lub fikcję w fakt, po prostu odejmując lub dodając odniesienia. "

W tych dwóch wizjach, w wersji mertońskiej i łoturskiej, ale także w powszechnie przyjętej wizji nauki, ta funkcjonuje w sieci, która mija się z cytatami i odniesieniami, które umożliwiają łączenie artykułów między nimi, a tym samym badaczy. , programy, instytucje.

Te wyjaśnienia uzasadniają obserwację założyciela Science Citation Index , Eugene'a Garfielda  :

„Prawie wszystkie artykuły, notatki, recenzje, poprawki i korespondencja publikowane w czasopismach naukowych zawierają cytaty. Cytują (zwykle według tytułu, autora, daty i miejsca publikacji) dokumenty, które wspierają, poprzedzają, ilustrują lub rozwijają to, co autor ma do powiedzenia. "

Analiza cytowań między czasopismach inspirowane również algorytm Google wyszukiwarki , PageRank (na podstawie powiązań hipertekstowych łączących stron internetowych), który jest obecnie wykorzystywane do rankingu oddziaływania instytucji badawczych w Internecie, takich jak Ranking Web of World Universities .

Obecnie rozwijają się inne wskaźniki wpływu w oparciu o sposób wykorzystania artykułów (liczba wyświetleń lub pobrań). To pojęcie użycia (wyrażenie zainteresowania) znacznie różni się od pojęcia wpływu lub wpływu, które znajduje się obecnie w centrum uwagi. Pojęcie uznania również pojawia się jako alternatywa.

Każda miara cytowania zakłada wybory metodologiczne:

Larivière i Sugimoto identyfikują trzy ograniczenia pomiaru wpływu badań opartych na cytatach:

Istnieją alternatywne metryki do cytatów, nazywane „  altmetrykami  ”. Środki te mają na celu ilościowe określenie społecznego wpływu badań, chociaż sugerują połączenie wpływu i uwagi.

Wskaźniki

Wskaźniki produkcji

W większości nauk biomedycznych i fizycznych naukowcy przekazują wyniki swojej pracy za pośrednictwem artykułów w czasopismach naukowych, a niektórzy uważają je za „zasadniczy cel swojej działalności”. Dlatego pomiar liczby opublikowanych artykułów jest często pierwszym wskaźnikiem produkcji. Jeśli artykuł jest centralnym środkiem komunikacji w naukach ścisłych, inne dyscypliny preferują inne sposoby produkcji: komunikaty konferencyjne (materiały konferencyjne) w informatyce, książki lub rozdziały książkowe z kilku dyscyplin nauk humanistycznych i społecznych. Wreszcie, w technologii i rozwoju, znacznik wynalazku, jakim jest patent , a zarazem tytuł prawny, narzędzie strategiczne i nośnik informacji, przedstawia wiele formalnych analogii z artykułem naukowym , pozwalając z ostrożnością na transpozycję narzędzi bibliometrycznych. Na poziomie mezo i makro ciekawym miernikiem aktywności instytucji jest także liczba nadanych doktoratów .

Te różne rodzaje publikacji ( produktów ) są jednak mniej lub bardziej dostępne i łatwe do przetworzenia. Jeśli artykuły publikowane w wybranych czasopismach naukowych są systematycznie przywoływane w bazach danych Web of Science lub Scopus , odwoływanie się do książek nastręcza więcej trudności. Postępy są w równym stopniu w przypadku książek, jak i artykułów konferencyjnych, w kontekście procesu cyfryzacji funduszy akademickich i konkurencji między dostawcami danych.

Konieczne jest również zdefiniowanie w praktyce, co wchodzi w zakres produkcji naukowej, która zawsze zawiera element arbitralności. Na przykład, w przeciwieństwie do patentów, nie ma formalnej definicji tego, czym jest artykuł periodyczny lub „naukowy”. Analiza bibliometryczna nieustannie konfrontuje się z kalibracją baz danych, kwestiami klasyfikacji czasopism, określeniem zadowalających obwodów korpusu, jeśli nie są one optymalne, w zależności od celów (poszukiwanie wyczerpującego zakresu lub porównania międzynarodowe obejmujące porównywalność i selektywność itp.).

Zliczanie wyników dla danego rodzaju produkcji iw określonym zakresie zakłada z jednej strony zasady dla artykułów ko-podpisanych z jednej strony, z drugiej strony dla artykułów lub czasopism w dyscyplinarnym multidyscyplinie (zgodnie ze strukturą baz danych. ). Istnieje wiele różnych metod liczenia, z których najpowszechniejsze są liczenie obecności i liczenie ułamkowe, co może prowadzić, zwłaszcza w skali „mikro”, do znacznych różnic. Nie ma „najlepszego rozwiązania”, a wybór zależy od poszukiwanych właściwości i przyjętego punktu widzenia. Należy zachować ostrożność przy wyborze producentów wskaźników, którzy czasami przedstawiają produkty z niezadowalającymi systemami liczenia, w szczególności przy wyborze jednej instytucji w linii afiliacyjnej. W grę mogą wchodzić również inne elementy selekcji, na przykład uwzględnienie wzajemnej recenzji (fakt, że artykuł został zweryfikowany i zatwierdzony przez niezależną komisję czytelniczą) oraz kwestia czasopism drapieżnych (gotowych do publikowania artykułów niskiej jakości).

Klasyczne wskaźniki są miarami wolumenu, „udziałów rynkowych” w danym benchmarku (krajowym, światowym itp.). W przypadku aktorów instytucjonalnych lub terytorialnych produkcja, miara siły brutto, musi być uzupełniona środkami związanymi z artykułem (cytowania według artykułu lub wpływu) lub miarami „produktywności”, odnoszącymi produkcję do nakładów, zasobów ludzkich lub ekonomicznych. Jednak produktywność naukowa jest niezwykle trudna do oszacowania, w szczególności z powodu trudności metodologicznych we wszystkich skalach przy mierzeniu nakładów.

Dla jednostek o dużym zróżnicowaniu, na przykład dużych instytucji badawczych lub uniwersytetów, ważnym aspektem jest podział produkcji między dziedzinami działalności, który można mierzyć klasycznymi wskaźnikami specjalizacji tematycznej lub koncentracji działalności. Te cechy spektrum działalności w różnych skalach pozwalają na analizę porównania specjalizacji-widoczności, komplementarności między aktorami itp.

Wskaźniki wpływu

Współczynnik wpływu

Współczynnik wpływu (IF) jest miarą średniego wpływu artykułów opublikowanych w czasopiśmie: oblicza całkowitą liczbę cytowań otrzymanych w ciągu roku referencyjnego z artykułów opublikowanych w danym czasopiśmie w ciągu dwóch lat. Poprzednie raporty, następnie dzieli ten wynik przez liczbę artykułów opublikowanych w ciągu tych dwóch lat. Wskaźnik ten jest własnością Instytutu Informacji Naukowej , który co roku od kilkudziesięciu lat wylicza go dla ponad 5000 czasopism naukowych znajdujących się w bazie Science Citation Index . Początkowo zarezerwowany tylko dla recenzji czasopism, „przyszedł zmierzyć wartość badacza, a nie czasopisma: im wyższy współczynnik wpływu periodyku, tym bardziej wzrasta kapitał akademicki badacza, który w nim publikuje”.

Larivière i Sugimoto podnieśli cztery granice FI:

  • Licznik obejmuje zacytowania i non-zacytowania przedmioty , natomiast mianownik zachowuje tylko zacytowania przedmiotów . Ta asymetria skutkuje wyolbrzymieniem IF czasopism, które publikują wiele elementów niepodlegających cytowaniu . CiteScore, opracowany w 2016 roku przez Elsevier , odpowiada na tę krytykę;
  • Różnice dyscyplinarne;
  • Zawężenie okna cytowania. Journal Citation Reports dostarcza IF na podstawie okna cytowań pięcioletniego do rozwiązania tego problemu;
  • Obliczenie średniej jest trudne do zinterpretowania na poziomie artykułu.

Czynnik wpływu, historyczny kamień milowy w scjentometrii, cieszył się względnym monopolem na stosowanie pomiarów naukowych aż do początku XXI wieku, zanim spopularyzowano liczne alternatywy.

CiteScore

Opracowany w 2016 roku przez Elsevier , CiteScore jest również wskaźnikiem wpływu na czasopisma.

„Otrzymujesz wynik CiteScore czasopisma za rok 2015, powiedzmy, dodając całkowitą liczbę cytowań otrzymanych w 2015 roku ze wszystkich artykułów opublikowanych w tym czasopiśmie w latach 2012-2014 i dzieląc tę ​​liczbę przez liczbę wszystkich artykułów opublikowanych. ten sam okres ”.

Wynik współczynnika własnego

Opracowany przez eksperta ds. Nauki o danych Jevina Westa i biologa Carla Bergstroma, punktacja współczynnika własnego jest używana do mierzenia ważności czasopisma. Czyni to poprzez nadanie większej wagi cytatowi z centralnego źródła niż cytatowi z bardziej peryferyjnego źródła. Wyrażony w procentach, „im wyższy wynik współczynnika własnego, tym większe znaczenie czasopisma w sieci”. Okno cytowania trwa pięć lat.

Wynik współczynnika własnego jest teraz używany do oceniania autorów, wydziałów, uniwersytetów i krajów.

Źródło Znormalizowany Wpływ na Księdze (SNIP)

Opracowany przez naukowometra Henka Moeda, Source Normalized Impact per Paper (SNIP) jest wskaźnikiem cytowań czasopism, który przyjmuje perspektywę cytowanego dokumentu (a nie cytowanego dokumentu). Okres cytowania trwa trzy lata. Cytaty własne są wliczone w cenę.

SCImago Journal Rank

SCImago Journal Rank (SJR) mierzy powiązania między zbliżeniowych czasopism na podstawie ich współ-przytaczając relacje. Wskaźnik został opracowany przez Félix de Moya-Anegon i Vicente Guerrero-Bote.

Inne wskaźniki wpływu

Niektóre klasyczne wskaźniki to:

  • wolumeny cytowań i udziały w danej przestrzeni (np. udziały globalne)
  • statystyki oparte na wartości centralnej (np. średnia liczba cytowań na artykuł)
  • względne wpływy (zwykle normalizowane przez średnią z dziedziny dyscypliny)
  • podział wpływu na oczekiwaną widoczność (analogicznie do czynnika wpływu dla rozważanej jednostki, odzwierciedlający konkurencję o dostęp do czasopism) i względną widoczność na czasopismo (względny wskaźnik cytowań) odzwierciedlające konkurencję w „wewnętrznych czasopismach
  • mierzy profile cytowań we wszystkich skalach, analizując względne rozkłady dla aktora i odniesienia
  • najnowsza i obfita rodzina indeksów złożonych, z których najpopularniejszym jest indeks h
  • miary zależności lub wpływu naukowego

Wskaźniki te mają bardzo różne właściwości, na przykład ich wrażliwość na ogony rozkładu lub rodzaj praktykowanej normalizacji. Różnorodność dyscyplin czy typów badań sprawia, że ​​konieczne jest poszukiwanie, w miarę możliwości, warunków porównywalności danych cytowań z różnych kontekstów. Kwestia standaryzacji / standaryzacji według dziedziny lub praktyki badawczej ma kluczowe znaczenie. Standaryzacja oddziaływań według dziedzin jest zatem problemem, który pojawił się po pierwszych wskaźnikach cytowań, w latach 70. XX wieku, na przykład w przypadku Murugesan i Moravcsik. Rozróżniamy teraz trzy rodzaje podejścia, aby pomiary były bardziej porównywalne między dziedzinami badań:

Klasyczne podejście polega na normalizacji miary cytowania ex post, według wartości kardynalnej (stosunek do wartości centralnej, takiej jak średnia pola, standaryzacja) lub porządkowej ( percentyle zdefiniowane przez pole). Istnieje obszerna literatura na ten temat, niezależnie od tego, czy dotyczy ona poziomu przeglądu (znormalizowane czynniki wpływu), czy poziomu aktora. Ogólnie rzecz biorąc, środki te zależą od nomenklatury dyscyplinarnej, na przykład „kategorii przedmiotowych” Web of Science lub planów klasyfikacyjnych. Kwestie standaryzacji są obecne w klasycznych tekstach bibliometrycznych (Narin, 1976, Braun 1985, patrz bibliografia; Schubert i Braun 1996), z licznymi zastosowaniami na poziomie czasopism (jeden z pierwszych znormalizowanych czynników wpływu: Sen 1992).

Pewne rodzaje „miar wpływu”, które odnawiają wspomnianą wcześniej pionierską pracę Pińskiego i Narina, na przykład czynnik własny czasopism opracowanych przez Bergstroma, integrują inny rodzaj normalizacji po stronie wydanych cytatów ( odniesień ), a nie otrzymane recenzje. cytaty. Ta standaryzacja jest w tym przypadku mieszana z wagami łańcuchowymi czasopism wydających zgodnie z ich własną widocznością.

Analizując zależność od poziomu ogólności zbiorów traktowanych jako odniesienie, inni autorzy zasugerowali zainteresowanie ważeniem po stronie cytowania, bez wprowadzania łańcuchów wpływów, co zaowocowało eksperymentalnym opracowaniem wpływu ważonego czynnikowo, „ współczynnik odbiorców ”. Wskaźnik ten w dużej mierze wyrównuje poziomy między specjalnościami lub dyscyplinami i zawiera korektę na bezpośredniość cytowań. Na tej ścieżce Scopus zaimplementował SNIP (Source Normalized Impact per Paper) . Środek ten, podobnie jak współczynnik widowni, jest niezależny od podziału dyscyplinarnego. Zasada standaryzacji po stronie cytowania może zostać rozszerzona, podobnie jak miary wpływu, na wszystkie techniki cytowania.

Wskaźnik złożony

Indeks h

W 2005 roku fizyk Jorge Hirsch zaproponował indeks h jako złożony wskaźnik produktywności i wpływu naukowego. Badacz będzie miał indeks h równy N, jeśli opublikował co najmniej N artykułów cytowanych co najmniej N razy. Ta definicja daje słabą wskazówkę badaczom, którzy publikują dużą liczbę artykułów, ale rzadko są cytowani, a także naukowcom, którzy opublikowali wyjątkowo wysoko cytowany artykuł. Konstrukcyjnie, wskaźnik h badacza nigdy nie może spaść, nawet jeśli jego produkcja spadła lub została zatrzymana.

Według Yvesa Gingrasa indeks ma niewielkie zastosowanie na poziomie indywidualnym, ponieważ „w rzeczywistości jest silnie skorelowany z całkowitą liczbą artykułów, a zatem jest zbędny”. Zaznacza jednak, że coraz powszechniejsze jej wykorzystanie (jest zintegrowane z bibliometrycznymi bazami danych) to przede wszystkim praca samych badaczy.

Larivière i Sugimoto zwracają uwagę na trzy wady tego wskaźnika:

  • czyni publikację dominującą zmienną w obliczeniach;
  • podlega zniekształceniom;
  • nie ma ukrytej koncepcji.

Indeks ma tę zaletę, że w przeciwieństwie do średnich wpływów jest niewrażliwy na rzadko cytowane artykuły w produkcji autora. Pozostałe wskaźniki rodziny (indeks g, indeks e) zachowują tę cechę indeksu h, wprowadzając jednocześnie wrażliwość na punktację cytowań najbardziej widocznych artykułów. Wadą tych środków jest ich delikatna standaryzacja dyscyplinarna, zarówno w praktyce, jak i co do zasady, biorąc pod uwagę nieco numerologiczny charakter podejścia .

Źródła danych

Wskaźniki bibliometryczne (jednostki policzalne) są konstruowane na podstawie zróżnicowanych źródeł danych, podzielonych na dwie kategorie:

  • Wskaźniki wkładu, oparte na raportach Organizacji Współpracy Gospodarczej i Rozwoju (OECD) lub głównych organizacji krajowych;
  • Wskaźniki produktu i wpływu, pochodzące z bibliograficznych baz danych, w których można ustalić powiązania między zindeksowanymi dokumentami (indeks cytowań).

Bibliometrics może liczyć na istnienie dwóch głównych indeksów cytowań, Web of Science i Scopus , obok Google Scholar i alternatywnych źródeł danych ( WorldCat , Plum Analytics, Altmetric).

Sieć nauki

Institute for Scientific Information (ISI), założona w 1960 roku przez Eugene Garfield został zakupiony przez Thomson Scientific & Healthcare w 1992 roku i stała się znana jako Thomson ISI . Po fuzji z Reuterem w 2008 roku ISI stała się częścią Thomson Reuters Corporation . Od 2016 roku jest własnością Clarivate Analytics .

ISI rozwinęło swoją działalność wokół siedmiu baz danych publikacji naukowych i ich cytowań. Pierwsze trzy zawierają artykuły i ich cytowania: Science Citation Index (SCI), Social Sciences Citation Index (SSCI) oraz Arts and Humanities Citation Index (A & HCI). Łącznie w pełni objętych jest ponad 9700 czasopism, z których 70% poświęconych jest naukom przyrodniczym, a tyle samo częściowo. Cytowania pochodzą z 1900 roku. Kryteria wyboru czasopism są dość restrykcyjne i opierają się na liczbie otrzymanych cytatów. Ze względu na kryteria wyboru te bazy danych są mocno anglojęzyczne.

Materiały konferencyjne są objęte dwiema bazami danych: Conference Proceedings Citation Index - Science (CPCI-S) oraz Conference Proceedings Citation Index - Social Sciences & Humanities (CPCI-SSH). Wreszcie, dwie bazy danych są poświęcone chemii: Index Chemicus (IC), Current Chemical Reactions (CCR-Expanded).

ISI opracowało wiele produktów przeznaczonych do korzystania z jej baz danych:

  • Web of Science  : interfejs sieciowy, który umożliwia analizę cytatów osoby, grupy, artykułu lub dziennika,
  • Journal Citation Report  : ranking gazet według współczynnika wpływu , różne wskaźniki dotyczące gazet,
  • Essential Science Indicators and ScienceWatch  : rankingi instytucji, autorów, krajów lub czasopism, lista najczęściej cytowanych artykułów, lista „najgorętszych” tematów itp.
  • InCites  : narzędzia benchmarkingowe do użytku przez instytucje,
  • ResearcherID  : unikalny numer na autora, w celu odróżnienia pracy osób z ujednoznacznieniem lub do śledzenia pracy osoby, która zmieniła nazwisko.

Scopus

Wydawca Elsevier uruchomił w 2004 r. Bazę danych konkurującą z bazą danych ISI pod nazwą Scopus . To szybko nadrobiło zaległości i obecnie odnosi się do 16 500 czasopism naukowych (w tym ponad tysiąc ogólnodostępnych), 600 publikacji branżowych, 350 księgozbiorów, a także kilka milionów materiałów konferencyjnych. Cytowania pochodzą z 1996 roku tylko w przypadku połowy cytowanych artykułów. W porównaniu do swoich konkurentów, Scopus oferuje szerszy zakres artykułów humanistycznych i społecznych oraz czasopism innych niż anglojęzyczne.

Firma Elsevier opracowała dwa produkty przeznaczone do eksploatacji jej baz danych:

  • Scopus.com  : interfejs sieciowy, który umożliwia analizę cytatów osoby, grupy, artykułu lub gazety;
  • SciVal Spotlight  : narzędzia testowe do użytku przez instytucje.

Ponadto, w oparciu o Scopus, SCImago Journal Rank lub eigenfactor.org to strony internetowe z bezpłatnym dostępem, które umożliwiają ocenianie gazet lub krajów.

Google Scholar

Jako spółka zależna giganta Google i na tej samej zasadzie Google Scholar został uruchomiony w wersji beta pod koniec 2004 roku i zawiera odniesienia do artykułów naukowych. Otwarty dostęp, Google Scholar wydaje się pełniejszy niż jego konkurenci, ale obecnie nie można wiedzieć, co jest zawarte w tej bazie danych, a co nie. Zanotowano wiele błędów lub duplikatów.

Korzystając z Google Scholar, można użyć narzędzia bilbiometrycznego Publish or Perish do obliczenia niektórych wskaźników bibliometrycznych według autora, czasopisma lub artykułu. Istnieje również rozszerzenie przeglądarki Firefox, które ma stosunkowo identyczne funkcje: Tenurometr .

Inne bibliometryczne bazy danych

Inne bazy danych, często finansowane ze środków publicznych i ogólnodostępne, są często wykorzystywane w wyspecjalizowanych dziedzinach:

  • SPIERS dla fizyki,
  • MEDLINE dla nauk przyrodniczych i nauk biomedycznych,
  • CiteSeerX dla informatyki i informatyki.

Aplikacje

Bibliometria zyskuje na znaczeniu pod wpływem kilku czynników: dostępności coraz bardziej kompletnych baz danych, zwiększonego wykorzystania narzędzi zarządzania w administracji badawczej, globalizacji „rynku” badawczego, szkolnictwa wyższego. Rozprzestrzenia się również pod wpływem ogólnego dostępu do danych cytowań, w szczególności za pośrednictwem Google Scholar , oraz dostępności bardzo prostych narzędzi bibliometrycznych, takich jak Publish lub Perish, opracowanych przez Ann-Will Harzing.

Ocena badań

Jest używany przez organizacje finansujące badania jako narzędzie oceny i pomoc w podejmowaniu decyzji w odniesieniu do polityk badawczych.

Zarządzanie szkolnictwem wyższym

Bibliometria jest wykorzystywana przez uniwersytety lub rządy do określania ich mocnych i słabych stron w dziedzinie badań, a tym samym do kierowania ich działaniami.

„Istnieje wiele powiązań między statystyką a polityką. Obejmują one rozumienie zjawisk, w których chcemy interweniować (teoretyczne), po ocenę działań rządu (praktyczne), nie zapominając o promocji wysiłków narodowych (symboliczne). "

Rankingi uniwersytetów

Opierając się na jednym lub więcej wskaźników wymienionych powyżej, rankingi uniwersytetów są prawdopodobnie najbardziej widocznym zastosowaniem bibliometrii. Dwa najbardziej znane międzynarodowe rankingi to:

Socjologia nauki

Bibliometria jest wykorzystywana przez socjologów nauki do badania działalności naukowców, powstawania i wzmacniania dyscyplin, czasowego znaczenia niektórych dziedzin lub powiązań, które splatają między nimi różne dyscypliny.

Indywidualna ocena badaczy

Czasami do indywidualnej oceny badaczy stosuje się bibliometrię. To zastosowanie jest bardzo kontrowersyjne (patrz poniżej ), biorąc pod uwagę niedoskonałość wskaźników i wyzwania związane z takim ćwiczeniem. Francuska Akademia Nauk wydała w tym celu szereg zaleceń:

„Zalecenie nr 1: Wykorzystanie wskaźników bibliometrycznych do oceny indywidualnej ma wartość tylko wtedy, gdy spełnione są pewne główne warunki: ocena musi odnosić się do artykułów, a nie do czasopism; Jakość danych, standaryzacja, znaczenie różnic i solidność wskaźników muszą zostać poddane walidacji; Ocena bibliometryczna powinna tylko porównywać ze sobą osoby z tej samej społeczności dyscyplinarnej podczas całego kursu; Użytkownicy bibliometrii muszą umieć się wytłumaczyć […]

Zalecenie 2: Bibliometrii nie można zredukować do liczb, ale musi jej towarzyszyć dogłębna analiza danych bibliometrycznych i bibliograficznych oraz, jeśli to możliwe, samych artykułów.

Zalecenie nr 3: Wskaźniki bibliometryczne nie mogą być stosowane w ten sam sposób w zależności od przedmiotu oceny: rekrutacji, awansów, kontraktów, wyróżnień itp.

Zalecenie nr 4: Należy w jak największym stopniu uwzględnić miejsce i wkład autora w omawianym artykule.

Zalecenie nr 5: Ocena bibliometryczna powinna być przedmiotem badań w celu podniesienia jej wartości. Francja musi uczestniczyć w tej refleksji. "

Opinie

Krytyka wskaźników ilościowych

Część osób, które opracowują opisane powyżej wskaźniki, zwracają uwagę na ich ograniczenia. Przykładowo, autorzy rankingu szanghajskiego przyznają, że istnieje uprzedzenie na korzyść krajów anglojęzycznych i dużych instytucji, a także trudności w zdefiniowaniu adekwatnych wskaźników do uszeregowania uczelni specjalizujących się w naukach społecznych . W raporcie National Institute for Research in Computer Science and Automation (INRIA) na ten temat uznano, że bibliometryczne kryteria ilościowe nie mogą zastąpić jakościowej wzajemnej oceny i podkreśla szereg negatywnych skutków tych wskaźników, gdy przypisuje się im zbyt duże znaczenie:

„Jeśli wskaźniki mogą wskazywać trendy w niewielkiej liczbie aspektów życia naukowego, należy zachować dużą ostrożność w ich stosowaniu ze względu na możliwość błędnych interpretacji, (często znacznych) błędów pomiarowych i stronniczości, na które mają one wpływ. Nadużycia wskaźników ułatwia kwantyfikowalny charakter wyniku, który wprowadza możliwość pilnego tworzenia wszelkiego rodzaju statystyk, bez martwienia się o analizę ich jakości i zawartości oraz zaciemnienie badania innych elementów życia naukowego, takich jak np. przykład, innowacje oraz transfer intelektualny i przemysłowy.

Najważniejsze ustalenia i zalecenia to:

  1. widzimy, że błędy pomiaru przy wyszukiwaniu cytatów są bardzo ważne (…). Dlatego stanowczo zalecamy pomnożenie źródeł, przeprowadzenie krytycznej analizy wyników (w szczególności poprzez wezwanie ekspertów w danej dziedzinie) i skupienie się co najwyżej na rzędach wielkości wskaźników.
  2. zalecamy skorzystanie z literatury bibliometrycznej w celu określenia rzeczywistego znaczenia wskaźników i ich odchylenia.
  3. wskaźniki dają jedynie częściowy i stronniczy obraz pewnych aspektów życia naukowego, bez uwzględnienia ich wszystkich. Dlatego muszą być uzupełniane, poprawiane i komentowane przez specjalistów w dziedzinie nauki oraz interpretowane, jeśli są wykorzystywane w kontekście oceny lub podejmowania decyzji.
  4. zalecamy, aby nigdy nie używać wskaźników do porównań między różnymi dziedzinami naukowymi.
  5. zasada wskaźników opartych na analizie cytowań nie sprzyja naukowemu podejmowaniu ryzyka i innowacjom. Nadużycia (lub, co gorsza, zautomatyzowane) byłyby głównym hamulcem innowacji.
  6. wskaźniki ilościowe są bardzo łatwo manipulowane przez osoby fizyczne, instytucje i inne podmioty życia naukowego (np. gazety). Liczba manipulacji rośnie, co można skorelować z rosnącym efektem wpływu wskaźników. "

Powyższe zalecenia są podzielane przez wielu specjalistów bibliometrycznych. Jednak braku porównywalności między dziedzinami nie należy wyolbrzymiać, biorąc pod uwagę możliwości standaryzacji, w szczególności w przypadku dyscyplin, które mają ten sam główny sposób produkcji (na przykład artykuł). Porównania są bardziej delikatne w przypadku różnych metod produkcji i są naturalnie uwarunkowane dostępnością reprezentatywnych danych na temat tych metod produkcji (problematyczne w przypadku dużej części HSS).

Na wskaźniki ilościowe mogą wpływać uprzedzenia kulturowe, w szczególności sposób, w jaki badacze danej kultury cytują badaczy tej samej kultury (chińscy naukowcy, którzy cytują Chińczyków itp.).

Największym ryzykiem jest z pewnością - to odwrotna strona skrajnej zdolności adaptacyjnej świata badawczego - presja przestrzegania sztywnego i nieodpowiedniego systemu miar lub nagród, którego najbardziej naiwną formą jest finansowanie publikacji. Wyzwania i perspektywy są szeroko omawiane w literaturze, niezależnie od tego, czy dotyczy to bibliometrii- scjenometrii , czy wskaźników.

Krytyka indywidualnej oceny badaczy przez bibliometrię

Spójność wskaźników

Wskaźniki ilościowe, coraz częściej wykorzystywane do oceny badaczy, w przeciwieństwie do poglądów ojca założyciela Dereka de Solla Price, który podkreślał statystyczny charakter tych podejść, są mocno krytykowane ze względu na ich brak spójności, gdy są stosowane na poziomie indywidualnym. Fakt, że ten sam badacz może otrzymać różne miary wpływu w zależności od wykorzystywanych wskaźników i bibliograficznych baz danych, stwarza wiele problemów w zakresie ich wykorzystania i określenia standardu jakości.

Znaczące niewykryte składki

Inni krytycy bibliometrii czasami wskazują na dużą zmienność liczby publikacji wśród renomowanych naukowców. Czołowi naukowcy, tacy jak Albert Einstein czy Louis de Broglie , opublikowali na ogół bardzo niewiele, pomimo ich znacznego wpływu na naukę. Pokazałoby to zawodność wskaźników bibliometrycznych. Niestety, te krytyki rzadko opierają się na weryfikowalnych liczbach: jeśli chodzi o Einsteina, „oto, co mówi sieć wiedzy ISI: około 160 artykułów, indeks h = 49, liczba cytowań bliska 20 000”. Dobra praktyka naukometrii zakłada znajomość właściwości każdego pomiaru i nie opiera się na jednym wskaźniku, jakkolwiek może być złożony.

Sytuacja jest oczywiście bardziej skomplikowana w naukach humanistycznych i społecznych. Na przykład, według filozofa Olivier Boulnois „z czterech tomów DITS et Écrits przez Michela Foucaulta , istnieje może nie pięć artykułów opublikowanych w czasopismach uznana za ...”. Krytyka ta pokazuje, że pomiar nauki musi jak najściślej podążać za praktykami badawczymi i publikacjami naukowymi i ewoluować wraz z nimi (podane tu przykłady rzeczywiście należą do kontekstu naukowego odmiennego od dzisiejszego).

Podobnie istnieją artykuły, które są bardzo rzadko cytowane przez okres ponad 10 lat, a po latach stają się bardzo cytowane. Nazywane „śpiącymi pięknościami”, artykuły te są często wizjonerskim wkładem niektórych naukowców, którzy pozostali stosunkowo niezauważeni, gdy zostały opublikowane, ponieważ dziedzina naukowa nie była wystarczająco dojrzała, aby docenić tę pracę. Istnienie tych „śpiących piękności” stawia pod znakiem zapytania użycie cytatów do indywidualnej oceny. Należy jednak spojrzeć na ich liczbę i wpływ na wskaźniki bibliometryczne, ponieważ stanowią one tylko 0,01–0,1% opublikowanych artykułów.

Sprzeciw wobec recenzowania

Jedna z najbardziej paradoksalnych krytyki może pochodzić od Laurence'a Coutrota, który wspomina o kolejnych procesach filtrowania niezbędnych przed publikacją artykułu, procesach filtrowania, które przechodzą przez recenzowanie (komitety recenzujące itp.): „Zmienna część tych rękopisów jest publikowana jeden na dziesięciu lub jeden na dwudziestu, czasem mniej. Wreszcie, opublikowany artykuł, poprzez szereg procesów społecznych, o których wiemy bardzo niewiele, może zostać zacytowany. Cytowanie jest rozsądną miarą widoczności wyniku naukowego. Choć chciałoby się dokonać rozróżnienia między badaczami, którzy pracują, a tymi, którzy „nie pracują” (zakładając, że wyrażenie to ma znaczenie), kryterium cytowania jest bardzo rustykalną miarą. Pod ozdobą obiektywizmu wskaźnik ten w rzeczywistości przywraca to, co miał wyeliminować; to jest ocena wzajemna. "

W rzeczywistości dobra praktyka z zakresu bibliometrii / scjentometrii w żaden sposób nie podważa oceny rówieśników. Przyjmuje rolę zwierciadła bibliometrii, co odzwierciedla agregację mikrodecyzji ocen między rówieśnikami (cytowanie jest ważnym aktem), ale w żaden sposób nie twierdzi, że ta agregacja jest podejściem wyłącznym. I odwrotnie, na ocenę rówieśniczą w tradycyjnym sensie, w wielu jej formach, wpływają informacje bibliometryczne (począwszy od czynnika wpływu…), zwłaszcza w dobie internetowych bibliograficznych / bibliometrycznych baz danych. Osądzanie przez rówieśników nie jest oczywiście odporne na nadużycia, szczególnie w sytuacjach oceny lub ekspertyzy jury lub komisji (stronniczość specjalizacji, efekty grupowe, konflikty interesów itp.). Istnieje zatem porowatość między dwoma światami, z których każdy przedstawia mocne i słabe strony oraz oczywistą komplementarność.

Wiele aspektów zawodu naukowca

Co więcej, bibliometria może domagać się analizy tylko jednego z aspektów zawodu badacza. Pomija edukację , popularyzację , usługi dla miasta, promocję, a nawet usługi na rzecz społeczności (udział w jury, komisjach czytelniczych itp.). Dlatego wiele czynników może wyjaśnić niewielką liczbę publikacji. Na przykład naukowiec, który dużo pracuje w ramach umów z przemysłowcami, może mieć trudności z opublikowaniem takiej ilości, jaką chciałby ze względu na poufność.

Niekorzystne skutki indywidualnej oceny bibliometrycznej

Bibliometria zachęca badaczy do publikowania większej liczby, zgodnie z zasadą publikuj lub zgiń . Ryzyko polega na tym, że naukowcom bardziej zależy na poszerzaniu listy publikacji (co determinuje ich karierę: możliwości awansu, ale też w niektórych przypadkach na wynagrodzenie lub ciągłość zatrudnienia) niż na wykonywaniu interesującej naukowo pracy.

Obserwujemy wtedy różne dryfowania ze względu na chęć zwiększenia liczby publikacji, np .:

  • psittacism: badacz publikuje ten sam pomysł w kilku „artykułach”, wykorzystując fakt, że osoby oceniające różne publikacje nie przeczytały swojej wcześniejszej pracy;
  • kiełbasa ( efekt salami ): ten sam pomysł kroi się na kilka plasterków, każdy publikowany osobno,
  • złośliwą autocytuję,
  • hamulec podejmowania ryzyka i karanie nowatorskich badań.

Jak każda technika pomiarowa, bibliometria podlega manipulacji, tym łatwiej, że poznaje się jej działanie.

Krytyka czynnika wpływu

Stosowanie „współczynnika wpływu” czasopism do oceny jakości artykułów i badaczy jest bardzo wątpliwe.

Jeśli czynnik wpływu ma mierzyć znaczenie czasopisma dla społeczności naukowej, błędem jest wnioskowanie, że artykuł opublikowany w czasopiśmie o wysokim współczynniku wpływu jest koniecznie lepszej jakości niż artykuł w recenzji o mniejszym wpływie. czynnik. Biorąc pod uwagę bardzo wypaczony rozkład cytowań, czynnik wpływu (który jest wartością średnią) czasopisma jest słabym wskaźnikiem liczby cytowań, jakie otrzyma artykuł opublikowany w tym czasopiśmie.

Z drugiej strony, wpływ, podobnie jak każdy wskaźnik oparty na cytatach, w dużej mierze zależy od nawyków SEO. Zależność od wielkości pola nie jest mechaniczna, przynajmniej dla średniej wartości oddziaływania. Szybkość cytowań również odgrywa dużą rolę: długi okres półtrwania cytowań w matematyce stawia czasopisma z tej dyscypliny w bardzo niekorzystnej sytuacji w porównaniu z innymi, w których cytowania są wykonywane znacznie szybciej. Odpowiednie standaryzacje pozwalają zniwelować lub zredukować te efekty. Sam czynnik wpływu jest typowy dla czasopism i nie jest dostępny dla innych mediów. W informatyce duże znaczenie mają materiały konferencyjne. W dziedzinie nauk humanistycznych i społecznych artykuły wymieniające prace są przedmiotem większej liczby cytowań niż same prace.

Ponadto polityka redakcyjna niektórych renomowanych czasopism (takich jak Science czy Nature ) wprowadza w grę kryteria pozanaukowe, takie jak „sensacyjny” aspekt publikacji. Stosowanie liczby cytowań sprzyja publikacjom „z duchem czasu”. Ogólnie rzecz biorąc, czasopismo poświęcone oryginalnym lub pojawiającym się tematom, które nie są „modne”, jest niekorzystne z powodu dwuletniego okna pomiarowego. Thomson Reuters zapewnia teraz pomiar w dłuższym oknie.

Wreszcie, wiele czasopism zostało oskarżonych o sztuczne zawyżanie współczynnika wpływu poprzez zwiększanie liczby recenzji lub silne zachęcanie autorów do cytowania innych artykułów z tego samego czasopisma. Thomson Reuters identyfikuje jednak najbardziej rażące przypadki manipulacji i wyklucza te czasopisma ze swojej listy.

Zwróć uwagę, że pojawienie się innych miar świadomości w czasopismach (miary wpływu, współczynnik odbiorców / SNIP), nawet jeśli pozostają one dość skorelowane z czynnikiem wpływu i współczynnikiem wpływu znormalizowanym przez dziedzinę, pokazuje różnice wystarczające do relatywizacji dogmatu. W literaturze specjalistycznej przedstawiono pogłębione analizy czynników wpływu. Przede wszystkim nie jest już możliwe, przy nowoczesnym podejściu do bibliometrii, ograniczanie się do pomiarów wpływu w zastosowaniach ewaluacyjnych.

Krytyka kosztów

Koszt dostępu do płatnych narzędzi jest wysoki i różni się w zależności od instytucji, w zależności od liczby użytkowników lub liczby artykułów, do których się odwołuje. INRIA (Narodowy Instytut Badań w komputerze i Automatyka) wydać 7000 euro rocznie, aby mieć dostęp do Science Citation Index Expanded (przedmioty od 1991) i Journal of Reports Citation . W związku z tym w raporcie INRIA stwierdza się na ten temat, że „Dostęp do płatnych źródeł jest zatem stosunkowo kosztowny, podczas gdy widzieliśmy, że niedoskonały wskaźnik pokrycia tych narzędzi powinien prowadzić do zwielokrotnienia źródeł w celu ustalenia w rozsądny sposób wymaganych wskaźników i / lub w celu kontroli błędów metodologicznych w obliczeniach wskaźników. Ponadto w przypadku konkretnego przypadku INRIA wstępne badanie […] pokazuje, że wyniki uzyskane za pośrednictwem płatnych źródeł są znacznie gorsze niż wyniki uzyskane przy użyciu bezpłatnych narzędzi. W innym obszarze byłoby a fortiori szkodliwe, gdyby wskaźniki były używane do kierowania wyborem abonamentów w centrach dokumentacji . "

Aktorzy

Aktorzy publiczni

Artykuły naukowe nie są głównym kanałem dystrybucji w naukach humanistycznych i społecznych (SHS), gdzie np. Monografie nabierają znacznie większego znaczenia niż w naukach przyrodniczych. Dlatego obecne metody bibliometryczne są słabo dostosowane do tych dyscyplin. Chęć oceny wyników podmiotów badawczych w SHS skłoniła zatem organy publiczne do poszukiwania alternatyw dla bibliometrii.

Europejska Fundacja Nauki

Utworzona w 1977 roku Europejska Fundacja Nauki ( ESF ) to stowarzyszenie 77 organizacji naukowych z 30 krajów europejskich. Jego celem jest promowanie badań naukowych i poprawa współpracy europejskiej w tej dziedzinie, wydawanie opinii w strategicznych kwestiach naukowych, zachęcanie do mobilności naukowców, poprawa łączenia zasobów.

W tym kontekście EFS ustanowił w 2007 r. Klasyfikację czasopism z zakresu nauk humanistycznych. Nazywany „Europejskim Indeksem Referencyjnym dla Nauk Humanistycznych” ( ERIH ), ranking ten jest ustalany przez panel ekspertów. Klasyfikuje czasopisma w trzech kategoriach na podstawie ich postrzeganego znaczenia.

W obliczu zagrożenia 61 komitetów wydawniczych czasopism humanistycznych i społecznych, w styczniu 2009 roku fundacja zdecydowała się usunąć litery (A, B i C) ze swojej klasyfikacji. Zostaną one zastąpione opisami pisemnymi.

We Francji

Prawo organiczne dotyczące prawa finansowego

We Francji wskaźniki bibliometryczne zajmują ważne miejsce w ustawie organicznej o prawie finansowym (LOLF)

AERES

Krajowa agencja ds. Oceny szkolnictwa wyższego i badań (AERES) jest francuskim niezależnym organem administracyjnym (AAI), odpowiedzialnym za ocenę szkolnictwa wyższego i badań publicznych, utworzonym na mocy ustawy z 2006 r. O programie badawczym.

Opierając się częściowo na modelu ERIH (European Reference Index for Humanities) opracowanym dla nauk humanistycznych oraz na listach utworzonych przez CNRS w 2004 r., AERES przeprowadził własną klasyfikację, rozszerzając ją na nauki społeczne. Stworzył on wstępnie uporządkowaną listę (A, B, C) 6 305 czasopism, która została wydana w lipcu 2008 roku i spotkała się z ostrą krytyką (patrz poniżej). Agencja zareagowała, tworząc nieuporządkowane listy dyscyplinarne, stosując „granicę naukowości” w latach 2009–2011.

Przegląd list czasopism AERES i EFS

We Francji bibliometryczna klasyfikacja czasopism opracowana przez AERES wzbudziła krytykę ze strony badaczy z różnych środowisk. W ten sposób mediewista Olivier Boulnois stwierdza, że ​​„myli się jakość recenzji z jej dystrybucją, a jakość artykułu z jakością recenzji”. Filozof Barbara Cassin jest również niezwykle krytyczna wobec indeksu h i rankingów czasopism.

Ranking AERES faworyzuje także czasopisma ogólne (którym przypisuje się rangę A) na niekorzyść czasopism specjalistycznych (ranga B, a nawet C) - co prowadzi do zaniżania wartości artykułów publikowanych w czasopismach specjalistycznych, uznawanych za mniej istotne, ponieważ miejsca ich publikacji.

W dziedzinie nauk o polityce Europejski Indeks Referencyjny w zakresie nauk humanistycznych stosowany przez Europejską Fundację Nauki nie był używany przez „ekspertów”, którym AERES powierzyła klasyfikację czasopism o tematyce politycznej (których nie było w rankingu AERES z lipca 2008 r.), „ Głównym powodem jest to, że bardzo niewiele czasopism francuskich można by sklasyfikować według tych ostatnich kryteriów [widoczności międzynarodowej] i że wówczas niemożliwe byłoby przeprowadzenie rozsądnej oceny efektywnej produkcji naukowej francuskich politologów. "

Różne możliwe klasyfikacje stosowane przez AERES są zatem krytykowane za brak solidnych podstaw.

Akcja NLP4NLP

Od 2013 roku akcja toczy się NLP4NLP czyli aplikacja bibliometrycznych narzędzi operacyjnych TAL archiwa TAL od lat sześćdziesiątych do dziś autorstwa Josepha Marianiego, Gil Francopoulo i Patricka Paroubka. Obejmuje to na przykład automatyczne ustalanie, kto jest twórcą terminów technicznych NLP. Innym obszarem badań jest ustalenie, jakie jest wycinanie i wklejanie (jeśli w ogóle), które wykonują badacze TAL, pisząc artykuł naukowy. Kolejnym tematem pracy jest analiza predykcyjna, mająca na celu ustalenie na podstawie profili statystycznych stosowania popularnych obecnie terminów technicznych, które terminy będą stosowane przez najbliższe cztery lata.

Zobacz też

Bibliografia

  1. Vincent Larivière i Cassidy R. Sugimoto, Mesure la science , Montréal, Les Presses de l'Université de Montréal,2018
  2. Beauvens Alisma., „Bibliografia statystyczna lub bibliometria”, Journal of Documentation , 25, 4, str.   348-349,1969
  3. Xavier Polanco, „  U źródeł scjentometrii  ” , na gabriel.gallezot.free.fr ,1995
  4. E. Garfield, Wskaźniki cytowań dla nauki: nowy wymiar dokumentacji poprzez skojarzenie idei , Science , 1955; 122: 108-111
  5. Robert K. Merton, The Sociology of Science (1957) w języku angielskim
  6. Bruno Latour, La Science en action , Paryż: Gallimard Folio, s.  87
  7. E. Garfield, 1979 Indeksowanie cytowań - teoria i zastosowanie w nauce, technologii i naukach humanistycznych . Wydawca John Wiley & Sons, Inc. 1979. Przedruk przez ISI Press, Filadelfia, USA. 1983
  8. Piński, G. i Narin, F. (1976), Wpływ cytowania na zbiory czasopism naukowych: teoria, z zastosowaniem w literaturze fizyki. Przetwarzanie informacji i zarządzanie, 12, 297-312.
  9. Cardon D. (2013). W duchu PageRank. Przegląd algorytmu Google , Sieci, 177, 63-95.
  10. C. Lee Giles i Isaac G. Council. Kto zostaje uznany: mierzenie wkładu naukowego poprzez automatyczne indeksowanie potwierdzeń . In Proceedings of the National Academy of Sciences 101 (51): 17599–17604, 21 grudnia 2004
  11. Bruno Latour i Steve Woolgar, Życie laboratoryjne. Sporządzenie faktów naukowych , Paryż: La Découverte, 1996
  12. Narin F., Patent Bibliometrics, Scientometrics 30, 1, 1994
  13. Barré R. (2001), Sense and nonsense of S&T wskaźników wydajności, Science and Public Policy 28, 4, s.  259-266
  14. Pontille D., Torny D., „ Produkcja oceny naukowej: algorytmy, zbiory danych, narzędzia bibliometryczne  ”, Réseaux, 177, 25-61, 2013.
  15. Murugesan P i Moravcsik M J. (1978), Odmiana natury środków cytowania z czasopismami i specjalnościami naukowymi. Journal of the American Society of Information Science 29: 141-155
  16. Schubert, A i Braun, T. (1996). Cross-field normalization of scjentometrycznych wskaźników, Scientometrics, 36 (3), 311-324.
  17. Sen, BK (1992). Znormalizowany współczynnik wpływu. Journal of Documentation, 48 (3), 318-325.
  18. Bergstrom, CT (2007). „Czynnik własny: pomiar wartości i prestiżu czasopism naukowych”. College & Research Libraries News 68 (5).
  19. Zitt M., Ramanana-Rahary S., Bassecoulard E. (2005). Względność pomiarów skuteczności Cytowanie i doskonałość: od pola poprzecznego przekroju efektami skalę terenowej normalizacji Scientometrics, vol 63 n °  2, p.  373-401 .
  20. Zitt M. Małe H. (2008) Modyfikacja Impact Factor Journal przez frakcyjny cytatem Waga: Factor publiczność, Journal of American Society for Information Science and Technology, tom 59, n °  11, str.  1856-1860 .
  21. Moed, HF Pomiar wpływu cytowań kontekstowych czasopism naukowych, pojawi się w Journal of Informetrics, 2010 arxiv.org/pdf/0911.2632
  22. Yves Gingras , Gorączka oceny badań , Uniwersyteckie Centrum Badań Naukowych i Technologicznych, maj 2008
  23. (in) Opis bazy danych ISI
  24. Informacje o Scopus
  25. J. Schöpfel i H. Prost, „The JCR Impact Factor (IF) and the SCImago Journal Rank Indicator (SJR) of French Journals: A Comparative Study”, w: French Psychology 54 (2009) 287–305
  26. Bardziej kompletna lista tych baz danych znajduje się w Category: Bibliographic database .
  27. Godin B. Dla socjologii statystyki nauki i innowacji , kanadyjską i innowacji Science Wskaźniki Consortium (CSIIC), papier roboczej n O  26, 2004.
  28. Académie des sciences, „  O właściwym stosowaniu bibliometrii do indywidualnej oceny badaczy  ”, 2011
  29. NC Liu i Y. Cheng, „  Academic Ranking of World Universities - Methodologies and Problems  ”, Higher Education in Europe , 30, 2, 2005 oraz M. Zitt i G. Filliatreau, „  Big is (made) Beautiful  ”, Première International Conference on World Class Universities , Szanghaj, czerwiec 2005.
  30. Czego wskaźniki bibliometryczne mierzyć? , dokument analityczny Komisji Oceniającej INRIA , przygotowany przez AM. Kermarrec, E. Faou, JP. Merlet (reporter), P. Robert, L. Segoufin. Zatwierdzone przez Komisję Oceniającą w dniu 12 września 2007 r.
  31. „  Czy ranking szanghajski jest stronniczy?”  » , Na http://onomastique.hypotheses.org/ ,30 sierpnia 2014(dostęp 30 sierpnia 2014 )
  32. Leydesdorff L. (2001), The Challenge of Scientometrics: The Development, Measurement, and Self-Organisation of Scientific Communications, Universal, 344 str.
  33. Weingart P. (2005) Wpływ bibliometrii na system naukowy: niezamierzone konsekwencje? Scientometrics 62, 1, 117–31
  34. Van Raan, A (2004), Measuring science. w H Moed, W Glänzel i U Schmoch, red., Handbook of Quantitative Science and Technology Research, s.  19–50 , Kluwer.
  35. Zitt M., Bassecoulard E. (2008) Wyzwania dla wskaźników scjentometrycznych: rozminowywanie danych, pomiary przepływu wiedzy i kwestie różnorodności, Temat / sekcja tematyczna: Wykorzystanie i niewłaściwe wykorzystanie wskaźników bibliometrycznych w ocenie wyników naukowych, Etyka w nauce i polityce środowiskowej 8, 1, 49-60 - i wiele innych publikacji w tym numerze tematycznym.
  36. Lepori B., Barré R., Filliatreau G. (2008). Nowe perspektywy i wyzwania dotyczące projektowania i produkcji wskaźników naukowo-technicznych, Research Evaluation, 17 (1), 33-44.
  37. Laurence Coutrot, w sprawie niedawnego stosowania wskaźników bibliometrycznych jako narzędzie do oceny badań naukowych , Bulletin de metodologia Sociologique , październik 2008, n o  100, str.  45-50
  38. „  Indeks h Alberta Einsteina  ” na rachelgliese.wordpress.com
  39. Olivier Boulnois , „  Automatyczna ocena w naukach humanistycznych  ” ,22 października 2008
  40. A. Van Raan, Sleeping beauties in science, Scientometrics, tom. 59, nr 3 (2004) 461-466
  41. [PDF] Co mówią wskaźniki? , Wywiad z Jean-Pierre Merlet, lider grupy refleksji na temat wskaźników INRIA komisji oceny , INRIA biuletynu , n °  59, maj 2007
  42. Gaming the Impact Factor stawia Journal in Time-out http://scholarlykitchen.sspnet.org/2011/10/17/gaming-the-impact-factor-puts-journal-in-time-out/
  43. Glänzel W., Moed HF (2002), Journal impact Measures in bibliometrric research, state-of-the-art report, Scientometrics 53, 2, 171-193
  44. Bordons M., Fernandez MT, Gomez I. (2004) Zalety i ograniczenia w stosowaniu miar Impact Factor do oceny wyników badań, Scientometrics 53, 2, 195-206
  45. Prezentacja ERIH
  46. ERIH wycofuje swoją klasyfikację na podstawie listów z czasopism (22 stycznia 2009) , Sauvons l'Université (wraz z linkiem do indeksu czasopism zawiera kontrowersyjne oceny , The Times of Higher Education , 22 stycznia 2009)
  47. Pontille D., Torny D., „ The Controversial policy of rating ranking: Evaluating  Social Sciences and  Humanities”, Research Evaluation, 19 (5), 347-360, 2010
  48. Barbara Cassin , „  Przypisujemy wyszukiwarkom ranking stron w rankingu Google  ” , na Rue89 ,9 lutego 2009
  49. ANCMSP (National Association of Candidates for Political Science Trades), „  Notatka na temat rankingu czasopism AERES w dziedzinie nauk o polityce  ” ,05 września 2008
  50. Olivier Ertzscheid (Wykładowca Informatyki ), "  Straciliśmy 71 th rozdział !!  " ,2 października 2008
  51. NLP4NLP: The Cobbler's Children Won't Go Unshod, Gil Francopoulo, Joseph Mariani, Patrick Paroubek, D-Lib Magazine: The Magazine of Digital Library Research, listopad 2015 [1]
  52. Ponowne odkrywanie 15 + 2 lat odkryć w zasobach językowych i ocenie, Joseph Mariani, Patrick Paroubek, Gil Francopoulo, Oliver Hamon, LRE (Zasoby językowe i ocena) Springer, DOI: 10.1007 / s10579-016-9352-9
  53. A Study of Reuse and Plagiarism in LREC papers, Gil Francopoulo, Joseph Mariani, Patrick Paroubek, LREC 2016, http://www.lrec-conf.org/proceedings/lrec2016/index.html
  54. Predictive Modeling: Guessing the NLP terms of Tomorrow ”, Gil Francopoulo, Joseph Mariani, Patrick Paroubek, LREC 2016, [2]

Bibliografia

  • Braun T., A. Schubert, W. Glanzel Scientometric Indicators: A Thirty-Two Country Comparative Evaluation of Publishing Performance and Citation Impact , World Scientific Publishing Company, 250 str.  1985 (dla metodologii)
  • Egghe L., Rousseau R., Introduction to informetrics. Metody ilościowe w bibliotece, dokumentacji i informatyce , Elsevier, 430 s., 1990
  • Garfield E., Indeksowanie cytowań: jego teoria i zastosowania w nauce, technologii i naukach humanistycznych , przedmowa RK Merton, John Wiley, 1979
  • Godin B., Nauka pod obserwacją: sto lat pomiarów naukowców, 1906-2006 , Presses de l'Université Laval, 2005.
  • Godin B., Measurement and Statistics on Science and Technology: 1920 to the Present , Routledge, 2005
  • Yves Gingras , The drifts of research assessment: the good use of bibliometrics , Raisons d'Actions éditions, 2014
  • B. Godin, o początkach bibliometrii, projekt na historii i socjologii S & T Statistics , kanadyjskiego Nauki i Innowacji Wskaźniki Consortium (CSIIC), dokument roboczy n o  33, 2006.
  • Lafouge T., Le Coadic YF, Michel C., Elementy statystyki i matematyki informacyjnej: informatyka, bibliometria, mediametry, scjentometria, muzeometria , Presses de l'Enssib, 306 s., 2002
  • Merton, RK (1968). Efekt Mateusza w nauce. Science , 159 (3810), 56–63
  • Moed HF, Glänzel W., Schmoch U., Ed., Handbook of quantitative science and technology research: the use of publications and patent statistics in studies of S&T systems , Kluwer, 800 str., 2004
  • Moed, HF, Citation Analysis In Research Evaluation , Springer, 364 str., 2005
  • Narin F. Bibliometria ewaluacyjna: wykorzystanie publikacji i analiza cytowań w ocenie działalności naukowej , 459 s. Computer Horizons (NSF C-627), 1976
  • Price, DJ Little science, big science , Columbia Un. Press, 118 str., 1965 - Trad. French Science et suprascience , 124 str., 1972, Fayard, 1972

Linki zewnętrzne