Tuesday 31 March 2015

Анализ российских исследовательских институтов в InCites

К концу прошлого года данные по ведущим российским университетам в Web of Science были приведены в порядок, и мы решили наконец-то взяться за академические - и не очень - институты, начав с тех, кто публикует как минимум 200 статей в Web of Science Core Collection каждый год. С марта этого года выверенные данные по российским институтам доступны как в Web of Science, так и в InCites. И вот что по ним видно.


Сверху мы видим treemap (не нашёл русского перевода этого вида инфографики) десяти российских организаций, опубликовавших наибольшее количество результатов научных исследований в Web of Science за последние 20 лет, снизу - таблицу пяти ведущих организаций, содержащую, помимо показателей публикационной активности за это время, следующие индикаторы:
  • нормализованной средней цитируемости этих статей;
  • количества высокоцитируемых публикаций, написанных при участии сотрудников этих организаций;
  • и процента публикаций, созданных в международном соавторстве.
Для наглядности я убрал из этих отчётов РАН и РАМН как головные организации, включающие в себя данные всех входящих в них институтов: во-первых, сами по себе РАН и РАМН статьи не пишут, во-вторых, на фоне РАН было бы плохо видно отдельные входящие в неё институты, в-третьих, у нас уже полтора года как ФАНО.

В итоге, практически ничего неожиданного обнаружить не удалось - несмотря на то, что МГУ публикует куда меньше работ, чем вся РАН вместе взятая, его публикационная активность гораздо выше, чем у любой из специализированных исследовательских организаций по отдельности, что полностью коррелирует с масштабом учреждений. Показатель нормализованного среднего цитирования же позволяет оценить качество исследований вне зависимости от размеров организаций. На картинке ниже приведены 11 институтов, опубликовавших за последние 20 лет хотя бы 3000 работ в Web of Science, и их нормализованная средняя цитируемость за этот период.

11 российских институтов, опубликовавших на последние 20 лет как минимум 3000 работ в Web of Science и лидирующих внутри страны по показателю нормализованной средней цитируемости этих работ. Единица - среднемировой уровень.
Можно и нужно радоваться за все институты, чьё цитирование оказалось выше среднего по России (0,53) за это время, и тем более - выше среднемирового уровня, но надо понимать, что большинство лидеров, в частности, Институт Физики Высоких Энергий, ПИЯФ, ИТЭФ, Объединённый Институт Ядерных Исследований, Курчатовский Институт и ФИАН - активные участники масштабных исследовательских проектов ЦЕРНа, про высокую цитируемость которых я писал здесь, правда, на тот момент применительно к универеситетам. Таким образом, вопрос "какой же институт в России цитируется хорошо кроме тех, что участвуют в исследованиях на Большом Адронном Коллайдере?" нас волновал с прошлого года, и мы с нескрываемой радостью нашли в этом списке Институт Теоретической Физики им. Ландау с показателем нормализованной цитируемости за последние 20 лет, равным 1,16 - то есть, на 16% выше среднемирового уровня, а также выше, чем у двух завсегдатаев Большого Адронного Коллайдера - Курчатовского Института и ФИАНа.

Нормализованная средняя цитируемость статей ИТФ им. Ландау в динамике. Единица - среднемировой уровень
К сожалению, высокие показатели цитируемости были у ИТФ им. Ландау где-то до 2008 года, после чего цитируемость статей института, стала, как и у большинства остальных в России, ниже среднемирового уровня, поэтому если мы посмотрим на тот же показатель не за 20, а за 10 или 5 лет - он будет скромнее, но сам факт того, что российские организации могут публиковать стабильно большое число высокоцитируемых исследований - это само по себе замечательно.

Отдельной группой здесь следует выделить химические институты - их много, они довольно активно, по российским меркам, публикуются, но, к сожалению, выделить из них какой-то один, который регулярно цитировался бы, например, на уровне Otto Hahn Institut из Общества Макса Планка, пока нельзя. В таблице ниже нормализованная средняя цитируемость - это колонка "Country Normalized Citation Impact", колонка Rank показывает место в России по публикационной активности за последние 20 лет.

Показатели публикационной активности, цитируемости, количества высокоцитируемых статей и международного сотрудничества ведущих российских химических институтов
Каждый из этих институтов мы можем рассмотреть в разбивке по предметным областям, журналам, совместным исследовательским проектам и авторам, чтобы понять, где их сильные и слабые стороны и как эти институты развиваются. Если мы найдём что-то особенно интересное по ним - я буду делиться наблюдениями здесь.

Friday 13 March 2015

Что происходит с цитируемостью российских статей

Самое время отметить, что проблема с публикационной активностью России постепенно решается - пусть не так быстро, как хотелось бы, но второй год подряд мы смотрим в Web of Science и искренне радуемся: количество российских статей непрерывно растёт, и не просто растёт, а обновляет рекорд за рекордом. Наверное, мы радовались бы куда меньше, если бы не замечали столько людей, чьё отношение к библиометрии меняется с пассивного неприятия на "а что, полезная вещь!". Иными словами, с научной производительностью (или, если хотите, с видимостью отечественных исследований международному научному сообществу) дела начинают более-менее налаживаться.

Ежегодное количество публикаций российских учёных в Web of Science Core Collection, данные по состоянию на 13 марта 2015 г.
Окончательные цифры 2014 года мы сможем наблюдать в Web of Science летом, но уже сейчас видно, что количество статей за неполный 2014 год больше, чем за полный 2013й. 

Между тем, про серьёзные подвижки с цитируемостью российских работ говорить пока рано. Россия как плелась в хвосте списка стран по среднему цитированию одной статьи в Essential Science Indicators, так и плетётся по сей день. Вроде и работ за последние 10 лет опубликовано немало, и цитирований на них прилично, но если поделить первое на второе, чтобы оценить эффективность исследований - тут сразу 133-е место из 153-х.

Составление стран по среднему цитированию одной статьи, опубликованной за последние 10- лет. Источник: Essential Science Indicators по состоянию на 13 марта 2015 г.
Я уже неоднократно писал, что одна из ключевых проблем - в выборе журналов для публикации. Одно дело - опубликовать работу в вестнике родной исследовательской организации тиражом в 2000 экземпляров, и совсем другое - например, в New England Journal of Medicine, у которого более 600 000 читателей в 177 странах мира или, чего уж там, Nature, которые ещё 2 года назад оценивали свою онлайн-аудиторию в 3 миллиона уникальных читателей в месяц.

Как недавно было продемонстрировано на уровне университета, фокус на высокоимпактовых журналах может серьёзно повысить цитируемость, и нам ничего не мешает провести то же самое упражнение на уровне России в целом. Вот журналы в Web of Science, в которых российские учёные опубликовали больше всего статей с 2004 по 2013й годы. Как видно, публикации в большинстве из них тянут цитируемость России вниз, на это самое 133е место:

Нормализованная средняя цитируемость публикаций российских авторов, сделанных с 2004 по 2013 год в зависимости от журнала. Сортировка журналов проведена по количеству публикаций в них с российскими аффилиациями. Единица - среднемировой уровень.
А вот - те журналы, публикации российских исследователей в которых, наоборот, цитируются хорошо. По вполне понятным причинам, в списке доминируют Physical Review разных серий, что косвенно указывает на тот факт, что в большинстве предметных областей у нас всё ещё предпочитают публиковаться по принципу "где проще".

Нормализованная средняя цитируемость публикаций российских авторов, сделанных с 2004 по 2013 год в зависимости от журнала, отфильтрованы журналы, в которых за этот период было сделано не менее 1000 публикаций. Единица - среднемировой уровень.
В каждой предметной области журналы уже давно делятся на квартили по импакт-фактору: 25% наиболее уважаемых - в которые тяжелее всего попасть, 25% чуть послабее, но всё равно авторитетных и превосходно цитируемых, плюс ещё два квартиля, в которых шансы статьи быть хорошо процитированной есть, но на них уже негативно влияет меньшая аудитория журнала (которая, как правило, всё равно значительна, иначе что этот журнал делал бы в Web of Science?). Этот подход позволяет понять не только конкретному исследователю, но даже на уровне университета - где стоит публиковаться наиболее активно. Возьмём для примера органическую химию, скриншот из Journal Citation Reports:

Фильтрация журналов по органической химии, только первый квартиль, Journal Citation Reports
Как сотрудник Thomson Reuters, я не имею права сказать: "Перестаньте публиковаться в таких-то и таких-то журналах, а вот эти - наоборот хорошие, несите ваши статьи туда", - это создало бы некоторый конфликт интересов, но когда я слышу фразу "наша организация через 5 лет станет лидером в своей предметной области, ведь мы планируем добавить 8 наших журналов в Web of Science", я всеми силами пытаюсь убедить авторов таких решений подумать ещё раз. Во-первых - не факт, что эти журналы пройдут нашу процедуру отбора. Во вторых - сколько уникальных читателей у этих журналов в месяц? В-третьих - сколько журналов КалТеха или институтов Общества Макса Планка вы находили в Web of Science?