ВЕСТНИК РОССИЙСКОЙ АКАДЕМИИ НАУК

том 74. №11, с. 1025-1029(2004)

© О. В. Михайлов

БЛЕСК И НИЩЕТА "ИНДЕКСА ЦИТИРОВАНИЯ"

О.В. Михайлов

Олег Васильевич Михайлов - доктор химических наук, профессор Казанского государственного технологического университета.

Как известно, вплоть до XX столетия занятие наукой было уделом весьма небольшого круга людей, приходивших в  в науку по призванию. Весомость вклада  ученого оценивалась научным сообществом исходя из содержательных качественных критериев. Хотя считалось общепризнанным, что вклад Гаусса, Коши или Эйлера в математику, Резерфорда, Бора или Фейнмана в физику, Дэви, Шееле или Менделеева в химию, Пастера, Менделя или Вавилова в биологию превосходит вклад большинства других отдельно взятых исследователей, механизм такой оценки оставался неопределенным.

В последние десятилетия, когда занятие наукой стало массовым явлением и к нему в значительной мере приобщился "середняк", только качественные критерии оценки научной деятельности представляются уже недостаточными. Все более настоятельным требованием времени становится использование тех или иных объективных количественных параметров. Лишенная субъективизма оценка приобретает особую важность, когда речь идет о каких-то "знаках отличия" отдельного ученого или научного коллектива, будь то финансирование исследований в виде грантовой поддержки или поощрение путем присуждения премий, медалей, ученых степеней и званий.

В современной России эта проблема становится все более актуальной в силу следующих обстоятельств. Во-первых, ученые титулы все чаще оказываются своего рода приложением к имиджу чиновника, никакого отношения к науке не имеющего. Во-вторых, нередко "знаки отличия" присуждаются отнюдь не за реальные научные достижения, а благодаря связям, как говорится, "по блату". В-третьих, отсутствие объективной оценки уже в ближайшей перспективе грозит науке потерей именно тех исследователей, которые как раз и являются ее творцами, но талант и достижения которых не получают должного признания.

Как мне представляется, объективная оценка качества научной деятельности должна осуществляться по конечному результату, чем-то напоминая процедуру выявления победителей в спортивных соревнованиях, когда лучших определяют, ориентируясь на те или иные конкретные объективные количественные показатели (время пробега на соответствующей дистанции, дальность броска копья или метания молота, взятая в прыжках высота и т.д.). Подчеркну - именно объективные, потому что если используются количественные, но субъективные показатели, произвол в той или иной степени неизбежен. Вспомним хотя бы соревнования по фигурному катанию на последних зимних Олимпийских играх в США или чемпионат мира по футболу в Японии и Корее, где многое решало отношение судей к соревнующимся, а отнюдь не мастерство последних. У научного сообщества фактически нет объективных количественных критериев оценки качества научной деятельности; применительно и к конкретному исследователю, и к исследовательским коллективам оценка носит субъективный характер. Это волевые (административные) решения, голосования на ученых советах и другие подобные формы.

В поисках критериев оценки в западной наукометрии был предложен "индекс цитируемости ученого". Фактически это не что иное, как число ссылок на работы данного исследователя в соответствующей отрасли научного знания за какой-то конкретный период. Индекс приобрел широкую известность и одно время весьма подробно обсуждался в научной печати, в частности в газете "Поиск" [1-8]. Прозвучало немало восторженных откликов, в том числе наших ведущих ученых. Более того, этот критерий в той или иной степени принимался во внимание в ходе выборов членов-корреспондентов и академиков РАН в 1997 г. по Отделению физико-химической биологии. Индекс имел решающее значение (по крайней мере, декларативно) при определении лауреатов конкурсов International Soros Science Education Program в номинациях "Соросовский профессор" и "Соросовский доцент". Причем в рамках данных конкурсов при определении индекса цитирования соискателей не учитывалось так называемое самоцитирование (то есть ссылки на собственные работы автора) и даже цитирование работ соискателя теми, кто когда-либо был его соавтором (тогда как в западной печати во внимание принимается суммарный индекс цитирования ученого с учетом всех ссылок на его работы).

Вопрос о том, насколько реально отражает заслуги исследователя такой "очищенный" индекс цитирования, требует отдельного обсуждения. Но вот сам подход к оценке качества научной деятельности, когда индекс цитирования рассматривается в качестве главного критерия, представляется мне не то что весьма спорным, но и очень опасным, грозящим похоронить всякую объективность и свести дело к поддержке отдельных "кланов" исследователей (что, кстати, в рамках вышеназванных конкурсов и произошло).

Прежде всего необходимо решить принципиальный вопрос: что важнее - сами по себе опубликованные работы исследователя или научного коллектива (причем независимо от того, в каких изданиях они опубликованы) или их востребован-ность другими исследователями? Вот несколько примеров на сей счет.

11 февраля 1826 г. великий русский математик Н.И. Лобачевский сделал на ученом совете Казанского университета свой первый доклад по неевклидовой геометрии. Доклад был воспринят его коллегами неоднозначно: кем-то с недоумением, а кем-то и просто в штыки (в зависимости от степени личной симпатии к автору). Такое же отношение сложилось и по отношению к его трудам (причем не только в России, но и за рубежом), ни о какой их востребованности речи не шло. Математики "прозрели" лишь через 12 лет после смерти великого русского геометра, когда малоизвестный в то время итальянский математик Бельтрами опубликовал скромный опус "Опыт интерпретации неевклидовой геометрии". Другой пример - атомистические воззрения Демокрита, которые оставались невостребованными вплоть до начала XX в.

Конечно, известны и противоположные случаи. Например, работы К. Птолемея по геоцентрической системе мира в течение нескольких столетий служили теоретической базой астрономии, но после появления системы мира Коперника практически полностью утратили свое значение. Труды академика Т.Д. Лысенко в 40-е и в начале 50-х годов XX в. в СССР считались едва ли не высшим достижением биологической мысли и цитировались по поводу и без повода, а с конца 50-х рассматривались как разновидность шарлатанства от науки. Ныне они если и представляют какой-то интерес, то разве что исторический.

Итак, верен ли сам тезис, что цитируемость или даже востребованность работ ученого является критерием их научной ценности? Предлагаю читателю самому судить об этом.

* * *

Практически в любой отрасли науки вот уже не один десяток лет сосуществуют так называемые открытые исследования, с содержанием которых может ознакомиться любой человек (на официальном языке это называется "неопределенный круг лиц"), и исследования с тем или иным грифом секретности, информационный доступ к которым ограничен. Образно говоря, это надводная и подводная части некоего айсберга, соотношение между которыми весьма существенно зависит от специфики отрасли науки. Ученые, работающие даже по тематикам с грифом "для служебного пользования" (не говоря уже о засекреченных), если и цитируются, то крайне мало, причем в открытой печати подчас невозможно найти даже их имена. При переходе исследователя из "надводной" части в "подводную" его имя нередко напрочь исчезает со страниц научной печати. Так, в частности, случилось в годы Второй мировой войны с известными физиками-атомщиками Р. Оппенгеймером, В. Гейзенбергом, Э. Ферми.

Сейчас, наверное, уже мало кто сомневается в том, что имена С.П. Королева, И.В. Курчатова и А.Д. Сахарова должны быть золотыми буквами вписаны в историю российской и мировой науки. Однако в то время, на которое пришелся пик их творческой деятельности, о них знали лишь единицы. Широкая научная общественность услышала о них лишь после того, как эти ученые либо сами по тем или иным причинам фактически отошли от дел (Курчатов, Королев), либо были изгнаны власть имущими из "подводной" отрасли и встали в открытую оппозицию (Сахаров). Индекс цитирования любого из них вряд ли намного превышает ноль. Получается, что грош им цена?

* * *

Что бы ни говорили поборники индекса цитирования, ссылки на чужие работы далеко не всегда означают, что процитировавший действительно ознакомился с этими трудами. Сам по себе факт цитирования публикации чаще всего означает лишь признание ее существования и связи с той или иной научной тематикой, о значимости публикации для развития данной тематики этот факт ничего не говорит. А значит, никакой корреляции между частотой цитирования и востребованностью работы в общем случае не существует.

Мне не раз и не два приходили письма от незнакомых со мной лично зарубежных коллег с просьбой выслать оттиски моих опубликованных работ. Нет сомнения, что подобные просьбы - не жест вежливости, к незнакомому человеку без нужды обращаться не станут. Видимо, эти работы действительно были нужны на каком-то этапе научной деятельности. Как правило, я отвечал на такие просьбы, но вот ведь парадокс: ссылки именно этих исследователей на те самые мои публикации, которые я им посылал, мне до сих пор не встречались. Ссылки на мои публикации делали те, кто с подобными просьбами ко мне никогда не обращался. Думаю, такими свидетельствами располагают многие ученые, и это прямо говорит о том, что востребованность и цитирование - вещи разные.

Наверное, ни для кого не секрет, что в силу ряда причин, никакого отношения к науке не имеющих (личностных, связанных с традициями, национальными или политическими амбициями), нередко необъективно признаются заслуги, а то и приоритет одного исследователя в ущерб другому. К примеру, в некоторых странах до сих пор оспариваются роль и приоритет Менделеева как творца периодической системы химических элементов в стремлении утвердить их за соотечественниками - французом Де Шанкуртуа, немцем Мейером или англичанами Ньюлендсом и Одлингом. А некоторые чересчур патриотичные русские историки науки склонны приписать нашему выдающемуся энциклопедисту М.В. Ломоносову не только все великие открытия его времени, но подчас даже те, которые стали достоянием науки уже после его смерти (в частности, закон сохранения энергии).

Явление комбинационного рассеяния света получило название "рамановской спектроскопии" по имени индийского физика Ч.В. Рамана, хотя для любого непредвзятого историка науки очевидно, что лавры первооткрывателя он, как минимум, должен был разделить с нашим соотечественником Л.И. Мандельштамом. Тут в дело вмешалась политика. Уверен, будь Мандельштам гражданином США или Великобритании, а не СССР, признание последовало бы незамедлительно. Естественно, это сказалось на индексах цитирования упомянутых исследователей: работы советского физика в указанной области, по сути дела, преданы забвению, а на публикации Рамана как нобелевского лауреата многократно ссылались и продолжают ссылаться до сих пор.

Не секрет и то, что мы сами цитируем труды нашик российских авторов гораздо реже, чем американцы - работы американцев, французы - работы французов, японцы - работы японцев [9]. Нельзя в этой связи не упомянуть по-настоящему трагичную ситуацию, когда наш соотечественник Белоусов, впервые наблюдавший периодическую химическую реакцию, не смог опубликовать ни в одном химическом журнале статью об изучении подобных реакций. Все его работы отвергались рецензентами с демагогическими комментариями типа "этого не может быть, потому что не может быть никогда". Лишь одна его статья увидела-таки свет в ведомственном "Сборнике рефератов по радиационной медицине", но химики в основной своей массе прочесть ее не смогли, поскольку никогда не держали в руках подобного сборника. А раз так, то ни о каком цитировании этой статьи и речи быть не могло. Белоусов при жизни остался фактически безвестным. Правда, о нем все же вспомнили, когда присуждали Государственную премию за открытие периодических реакций, но это весьма слабое утешение.

* * *

На одну и ту же работу могут сослаться в таких сверхавторитетных изданиях, как "Nature" и "Science", или в куда менее известных миру, но тоже весьма авторитетных "Журнале экспериментальной и теоретической физики" и "Успехах биологических наук" и в то же время в мало кому знакомом вестнике какого-либо вуза или научно-исследовательского института. С формальной стороны, независимо от издания, эти ссылки равноценны. Но вправе ли мы считать их эквивалентными друг другу? Нужно ли каким-то образом учитывать авторитетность того издания, в котором появилась ссылка? Если да, то как их дифференцировать?

Как известно, данные Института научной информации США (ISI) наряду с цитированием учитывают и самоцитирование, то есть цитирование ученым собственных ранее опубликованных работ. Потребность упомянуть свои предшествующие исследования, если по ходу изложения научного материала это представляется необходимым, вполне естественно. До определенной степени самоцитирование вполне оправданно, так как весьма часто данная публикация является продолжением прежних работ ученого. Бывает и так, что исследователь изучает проблему, которую в настоящее время никто кроме него не разрабатывает, и он оказывается вынужден цитировать сам себя. Более того, в таком случае, независимо от реальной значимости его исследований,

весьма вероятно, что именно в силу оригинальности избранного им направления другие авторы будут цитировать его значительно реже, чем он сам себя. Наука сейчас настолько сильно дифференцирована, что многие ученые мало знакомы с тем, что происходит за рамками той узкой отрасли, в которой они работают. В этой связи возникает вопрос: следует ли принимать во внимание самоцитирование, и если да, то на равных ли правах с цитированием другими авторами?

* * *

Ныне практически никто не работает в одиночестве, любой ученый входит в состав исследовательской группы. Как быть с работами, где фигурирует много соавторов, каждый ли из них вправе считать, что ссылаются на его труд? Может быть, следует вносить ссылки на такие работы в зачет только первого автора или того, чей вклад больше? Или правильнее выделять долю конкретного автора, исходя из числа соавторов (1/2, 1/3 и т.д.), либо по их взаимной договоренности?

Представим себе еще одну вполне реальную ситуацию: некий исследователь за определенное время получил 10 ссылок на одну монографию; другой за тот же отрезок времени - 10 ссылок, но уже на 5 разных статей; третий - опять-таки 10 ссылок, но на 10 разных тезисов докладов. Кому из них следует отдать предпочтение по части цитируемости? Нужно ли вообще принимать во внимание категорию цитируемой работы и ее объем? Если да, то как сопоставлять по значимости ссылки на публикации разных категорий?

* * *

Исторически сложилось так, что отношение к цитированию в разных науках неодинаково. Среди "естественников" в наименьшей степени склонны упоминать работы своих коллег по цеху математики, в несколько большей - физики и химики, в наибольшей - биологи и медики. Поэтому при прочих равных условиях индексы цитирования ученого могут различаться едва ли не на порядок. Вполне возможна ситуация, когда математик, имя которого оказалось среди соавторов статьи, опубликованной в каком-либо биологическом или медицинском журнале, получит благодаря именно этой публикации гораздо более высокий индекс цитирования, чем по статьям в математических журналах, и превзойдет в этом отношении своих коллег, имеющих более солидные,труды. Да и системы цитирования в разных отраслях знания отличаются друг от друга. Так, в дисциплинах, объединяемых собирательным термином "науки о

земле" (география, геология, геофизика и др.), а также в биологии долгое время в ходу была практика цитирования типа "Васильев, 1925" или "Fenske, 1944" без указания конкретной публикации (не говоря уж о выходных данных). Понять по такой ссылке, какая именно работа данного автора цитируется, представляется куда более трудной задачей, чем искать пушкинского героя Дубровского по тем приметам, которые исправник сообщил Троекурову. Единая система цитирования (то есть списком литературы в конце научной работы, где дается подробное описание цитируемых трудов и их выходные данные) утвердилась в науке в целом лишь в последние 30-50 лет.

Не думаю, что адепты идеи использования индекса цитирования в качестве важнейшего критерия оценки качества профессиональной деятельности ученого сумеют ответить на все эти непростые вопросы. Но самое главное, пожалуй, состоит вот в чем: вправе ли мы вообще считать объективным такой показатель научной деятельности? Количество ссылок на работы ученого, как было показано, мало зависит от его научной активности, от общего числа опубликованных им работ, их объема, авторитетности тех изданий, где они опубликованы, от реальной их значимости для той или иной отрасли знания.

Пикантность ситуации состоит в том, что порядочный человек повлиять на ситуацию не в силах, ему остается надеяться, что его труд заметят и оценят (процитируют). У тех же, кто не обременен излишней щепетильностью, есть целый ряд возможностей увеличить индекс цитирования. Самый простой прием - попросить коллегу сослаться на ваши публикации в обмен на аналогичную любезность с вашей стороны (или за иную мзду). Предвижу возражения: настоящему ученому такое в голову не придет. Настоящему - да, и за рубежом, где уровень научной этики достаточно высок, наверное, тоже. А вот в нашей стране на нынешнем этапе ее развития, когда продаются и покупаются ученые степени, дипломы и аттестаты, подобные услуги могут казаться сущей мелочью.

Пока что у нас оценка научной деятельности по личным индексам цитирования не стала официально признанной, не фигурирует в отчетах, подготавливаемых при избрании или переизбрании на ту или иную должность. Поэтому значительной части российских научных работников, в сущности, все равно, насколько часто их цитируют и цитируют ли вообще. Но если этот критерий получит официальный статус, ситуация изменится. Вот пример. В отзыве рецензента на мою статью, проходившую в свое время в одном из центральных журналов, фактически содержалось требование сослаться на труды такого-то. Пожелание сие

я выполнил (спорить с редакционными арбитрами - себе дороже), хотя эти работы никакого отношения к содержанию моей статьи не имели. В этой связи полезно вспомнить и незабвенного Т.Д. Лысенко, который, опираясь на то, что ныне называют "административным ресурсом", заставлял биологов ссылаться по поводу и без повода на его собственные труды. Ну, а тому, кто подобным ресурсом не располагает, можно порекомендовать опубликовать собственную статью (или статьи) со ссылками на свои публикации под псевдонимом. Если это не по душе, то можно даровать авторство на такую статью кому-либо из коллег, не связанных с вами узами соавторства. Компьютеры Института научной информации (ISI), отслеживающие и систематизирующие данные о цитировании, скорее всего, таких фокусов не раскусят. По-видимому, это отнюдь не полный перечень возможных приемов, нацеленных на искусственное увеличение индекса цитирования ученого.

Подводя итог, можно с полным на то основанием утверждать: такой индекс цитирования ученого, который получается путем простого суммирования всех ссылок на его публикации, не отражает объективно его вклада в науку и нуждается по меньшей мере в существенной корректировке. Но даже если окажется возможным провести корректировку с учетом всех указанных выше обстоятельств, индекс не должен использоваться в качестве главного критерия оценки научной деятельности хотя бы потому, что он имеет генетически присущий недостаток - субъективизм, которого при цитировании, хотим мы того или нет, избежать не удастся.

ЛИТЕРАТУРА

1. Шувалов В. Критерии и критики // Поиск. 1997. № 42. 11 октября.

2. Маркусова В. Осторожно - индекс цитируемости! // Поиск. 1997. № 44. 25 октября.

3. Чайлахян Л., Иваницкий Г., Харакоз Д., Саркисов Г. "Объективные" критерии и реальные науки // Поиск. 1997. № 46. 8 ноября.

4. Пудовкин А. Не обижайте медиану! // Поиск. 1997. № 47.15 ноября.

5. Касторы Б., Кулик А. Первая лига // Поиск. 1997. № 49.29 ноября.

6. Климов В., Иванов В. Объективность или субъективизм? // Поиск. 1997. № 51. 13 декабря.

7. Иванов И., Кудеяров В., Макеев О., Понизовский А. Иная ситуация // Поиск. 1997. № 51. 13 декабря.

8. Шувалов В. Назло рекордам // Поиск. 1997. № 52. 20 декабря.

9. Маркусова В.А. Цитируемость российских публикаций в мировой научной литературе // Вестник РАН. 2003. № 4.
 




Ноябрь 2004