О том, что выстроить эффективную модель профессиональных компетенций организации довольно сложный процесс, я уже говорила. Под эффективностью я понимаю скорее работу термометра - если он показывает текущую температуру правильно, он работает корректно. О том, что "термометр виноват в вашей повышенной температуре и может повлиять на ее снижение" - это, пожалуйста, к сказочникам. Оценка ни на что не влияет и влиять не может!
Хотя недавно меня пытались убедить в обратном и даже привязать мои KPI к этому мифическому влиянию... Но это лирика и отступление.
О чем я хочу рассказать сегодня. О самом процессе оценивания уже формализованных и описанных требований к рабочей деятельности в виде профессиональных компетенций. Безусловно, оценить корректно их возможно только в комплексе: знания, умения и навыки. Навыки оцениваются только непосредственно на рабочем месте, умения - частично в ролевой среде или модели рабочего пространства, частично - тестами - решение кейсов, задач, воспроизведение алгоритмов и порядков.
А вот, профессиональные знания (или теория) можно и нужно проверять только тестами знаний.
Другой вопрос, что создать валидный, надежный, в общем, качественный тест, не проще, а даже сложнее порой, чем сама модель профессиональных компетенций. Потому, что только на этом этапе "погружаешься" полностью в предметную область знаний, а не только абстрактные наименования требований, пускай и детализированные до операций в индикаторах.
Хочешь-не хочешь, но кроме правил составления тестовых заданий, выбора формы правильных ответов и дистракторов, обязательным требованием является качество самих источников!
Вопросы и тесты не составляются на пустом месте - как бы мы хотели что-то проверить. Если теоретической информации нет (в виде инструкций, текста, аудио ряда или видео), то и доказать опрашиваемых, что это именно то, что они должны знать практически невозможно - где об этом сказано? Так?
Плюс, цель профессионального тестирования и оценки все же получить некий срез текущего состояния компетентности в области знаний человека. Поэтому, если опрашиваемый чего-то не знает (не говоря уже об "умеет" и "выполняет"), то хотелось бы понять, что именно не знает, и где добыть недостающее.
По всему получается, что вроде задача одна - составить корректно тесты, но на деле сначала нужно разобраться с источниками!
Очень полезный в итоге у нас получается "побочный" эффект, если все делать правильно и по уму - составляем тесты и сразу же приводим в порядок базу знаний - инициируем разработку новых инструкций, памяток, регламентов, пишем курсы и т.п., обращаемся к внешним источникам за корректной и актуальной информацией, если она используется в тестировании, налаживаем отношения с разработчиками ПО и правим уже их инструкции, собираем весь комплект информации и налаживаем коммуникации для поддержания актуальности уже полученных документов.
Ведь процесс актуализации модели профессиональных компетенций поставлен на оперативный режим. А это означает (дедка за репку, бабка за дедку, внучка за бабку и т.п.) - изменился процесс - поменялась модель, поменялась модель - поменялась предметная область знаний, поменялась предметная область знаний - поменялись документы, поменялись документы - изменились вопросы. А так как это инструмент прежде всего для самих руководителей подразделений, по тестам которых тестируются его же люди, и по результатам в последствии принимаются те или иные (в комплексе с другими инструментами оценки) административные решения или решения по затратам на обучение, то и актуальность поддерживается постоянно - в оперативном режиме.
Вот так, и достигается вопрос актуальности баз знаний, не смотря на то, что это не является задачей подразделения по оценке...
Пишите, спрашивайте - готова делиться и обсуждать :).
Как то так,
Денисова Елена
Комментариев нет:
Отправить комментарий