Интернет-портал интеллектуальной молодёжи
Главная     сегодня: 6 ноября 2024 г., среда     шрифт: Аа Аа Аа     сделать стартовой     добавить в избранное
Новости Мероприятия Персоны Партнеры Ссылки Авторы
Дискуссии Гранты и конкурсы Опросы Справка Форум Участники


 



Опросов не найдено.




Все права защищены и охраняются законом.

Портал поддерживается Общероссийской общественной организацией "Российский союз молодых ученых".

При полном или частичном использовании материалов гиперссылка на http://ipim.ru обязательна!

Все замечания и пожелания по работе портала, а также предложения о сотрудничестве направляйте на info@ipim.ru.

© Интернет-портал интеллектуальной молодёжи, 2005-2024.

  Дискуссии « вернуться к списку версия для печати

Наталья Иванова: "Огромный объём бумажной работы и результат, который понятен заранее"

26 сентября 2008 03:05

Член-корреспондент РАН, заместитель директора Института мировой экономики и международных отношений РАН Наталья Иванова. Фото: Александр Забрин, www.silicontaiga.ru
Член-корреспондент РАН, заместитель директора Института мировой экономики и международных отношений РАН Наталья Иванова. Фото: Александр Забрин, www.silicontaiga.ru
Справка:

Иванова Наталья Ивановна, заместитель директора Института мировой экономики и международных отношений РАН, член-корреспондент РАН

Принципы оценки результативности научных организаций отражают движение министерства в правильном направлении. Но без комплексного, системного подхода, учитывающего уроки и нашего, и очень разного зарубежного опыта, мы не добьёмся поставленных целей.

Министерство образования и науки разработало проект принципов оценки результативности научных организаций. Что из предложенного Вам кажется удачным, а что спорным?

— В целом, конечно, эти принципы отражают движение министерства в правильном направлении. Потому что ставить задачу оценки результатов деятельности научных организаций нужно. Этот вопрос, так или иначе, ставится и решается во всём мире. Конечно, у нас в этом вопросе много специфики. И как раз эта специфика, я думаю, учтена не в полной мере.

Прежде всего отмечу, что у нас уже есть опыт, во всяком случае в академических институтах, оценки учёных по ПРНД — показателям результативности научной деятельности, которые были предложены министерством. На мой взгляд, данный опыт должен быть учтён в реализации следующего этапа — оценки институтов.

Какие проблемы видим мы, участники оценки. В первую очередь — это большой объём бумажной и административной работы, которой потребовало введение ПРНД от всех академических институтов, в частности нашего. Результаты этой "времяёмкой", отвлекающей деятельности для института ничего нового не дали в следующем отношении — мы знали, какие сотрудники у нас работают хорошо, какие сотрудники работают хуже, какие работают так себе. Ничего принципиально нового из системы ПРНД мы не узнали. Вероятно, в каких-то институтах это было не так, но обобщения, анализа результатов оценки по всем научным организациям, по-моему, нет. А без этого вряд ли целесообразно двигаться дальше.

Другой проблемой стало то, что предложенная структура ПРНД стимулировала людей к пересмотру ряда своих обязанностей.

У нас в институте главным продуктом была наша фундаментальная монографическая продукция, основа наших теоретических знаний. Институт всегда с очень большой требовательностью подходил к её оценке — это был наш главный результат, обеспечивавший и подготовку научных кадров, и высокий уровень прикладных исследований. Сейчас по ПРНД оказалось, что выступления в интернете, интервью, статьи в журналах дают гораздо более "лёгкие" баллы, чем участие в монографии. Такова система оценки. И люди уже начинают работать в направлении повышения показателей формальной отчётности. То есть кто-то начинает "бегать" по конференциям с одним и тем же докладом, называя его немного по-разному. Кто-то начинает публиковаться везде, где возможно, иногда в ущерб качеству.

Пока мы не считаем, что это нам сильно осложнило жизнь. Но ясно, что начались некие процессы, которые мы не всегда приветствуем, и не до конца понимаем, к чему они приведут через два-три года. Это настораживает.

Видимо, то же самое может произойти с институтами.

Ещё одно соображение относится к использованию опыта уже наработанных методов оценки. В Академии каждые пять лет происходит оценка каждого института специально созданными комиссиями. Недавно наш институт проходил такую комплексную оценку деятельности как по научным, так и по организационным, финансовым и чисто административным вопросам. Комиссия формируется так, что коллеги из других институтов, одновременно в какой-то мере наши конкуренты, внимательно и с пониманием специфики оценивают наши результаты, сравнивают их со своими. То есть, механизм оценки давно создан, и никто не объяснил нам, чем он плох.

А кто должен осуществлять оценку?

— В этом смысле есть самый разнообразный мировой опыт, как правило, предполагающий участие внутренних, внешних и международных экспертов. Международная оценка очень важна, поскольку по природе наука интернациональна, её развитие обеспечивается коллективами учёных из разных стран. Так, в европейских научных организациях высок вес международной экспертизы, привлечение специалистов из другой страны является обычной практикой. Но надо учитывать, что в силу исторически сложившегося перекрёстного развития науки и образования, особенно в последние 20-30 лет, благодаря обилию международных программ, контактов учёных, реально сложившихся узкоспециализированных междисциплинарных сетей, где люди друг друга знают, объективность оценки с участием внешних учёных в Европе оправданна и неизбежна. В России далеко не все исследователи интегрированы в международные программы, и здесь есть и субъективные и объективные причины, которые хорошо известны.

В США больше опираются на собственные критерии и методы оценки. В отношении науки главную роль играет конгресс, поскольку именно там утверждаются бюджетные ассигнования всех министерств и ведомств. В соответствии с принятым конгрессом в 1994 году законом Research Performance Act оценке подлежат как государственные научные центры и лаборатории, так и все агентства, финансирующие научные исследования. Такой подход позволяет, например, сравнить деятельность Национального научного фонда, NASA и Национальных институтов здоровья, показать, в чём проблемы, кто лучше, кто хуже справляется со своей основной миссией. Иногда по результатам таких оценок и сравнений соответствующие комиссии конгресса принимают кадровые решения. Это повышает ответственность руководства соответствующих ведомств.

Кстати, введение в США закона об оценке научной деятельности предусматривало пятилетний переходный период для учёта всех особенностей оценки, коррекции предлагаемых показателей, разработки наиболее эффективных процедур.

Есть примеры других внешних, вполне объективных механизмов оценки. Так, наш институт, по методике Филадельфийского института международных исследований (США), вошёл в десятку лучших аналитических центров мира. Мы не знали ничего про эту работу вообще. Они это опубликовали, и мы случайно узнали. Нас не спрашивали о наших ПРНД. У них своя методология, её можно открыть в интернете, прочитать. Там учитывались и публикации, и различные проекты нашего института, и уровень возможной оценки влияния работы сотрудников института как международного центра на формирование внутренней и внешней политики — по очень широкому кругу вопросов. В какой мере такого рода методы и результаты могут быть учтены в методике министерства?

Не получится ли у нас, как в старые советские времена, — есть набор показателей, и они будут выполнены? Тогда ведь практически любой плановый показатель предприятиями выполнялся, но реальная картина никогда не совпадала с благостной статотчётностью.

Дмитрий Европин

источник: STRF

Последние материалы раздела

Обсуждение

Добавить комментарий

Обсуждение материалов доступно только после регистрации.

« к началу страницы