5.6. ИНФОРМАЦИОННАЯ ФУНКЦИЯ

Согласно А.Бирнбауму9 количество информации, обеспеченное  j-м заданием теста в данной точке θi - это величина, обратно пропорциональная стандартной ошибке измерения данного значения θi с помощью j-го задания. Для описания информации, соответствующей заданию вводится информационная функция I(θ)9, 16.

Для однопараметрической модели Pj = 1,7PjQj, тогда

Ij(θ) = 2,89Pj(θ)Qj(θ), где Qj(θ) = 1 - Pj(θ)-вероятность неверного ответа на j-е задание. Поскольку

то выражение для информационной функции перепишем в следующем виде

         (5.6.1)

Для двухпараметрической модели

Ij(θ) = 2,89αj2Pj(θ)Qj(θ),

В трехпараметрической модели информационная функция имеет вид6

Отметим, что численный коэффициент 2,89 появился из-за наличия масштабного множителя 1,7. Если считать его равным единице, то, например, для однопараметрической модели получим (F.Baker)18    Ij(θ) = Pj(θ)Qj(θ). В этом случае максимальное значение информационной функции равно 0,25.

Построим информационную функцию для однопараметрической модели, используя выражение (5.6.1)

 Рис.5.6.1. Информационная функция задания с
нулевой трудностью.

На рис.5.6.1. показана характеристическая кривая задания с уровнем трудности b=0 и информационная функция для этого задания.

Видно, что максимум информационной функции достигается при таком значении q, когда имеет место перегиб характеристической кривой задания, то есть вероятность выполнения задания равна 0,5.

Таким образом, задание наиболее информативно, когда его трудность примерно равна уровню подготовленности испытуемого.

Информационные функции обладают свойством аддитивности18

Это означает, что можно построить информационную функцию всего теста. На рис.5.6.2. приведен пример теста из трех заданий с трудностями -1 (график №1), 0 (график №2) и +1 (график №3). Для этих трех информационных функций тестовых заданий построена информационная функция всего теста (график №4).

Рис.5.6.2. Информационная функция «хорошего» теста.

Рис.5.6.3. Информационная функция «плохого» теста.

Информационная функция теста должна иметь один четко выраженный максимум (рис.5.6.2). Если это не так, то тест нуждается в доработке, в него необходимо добавить задания с трудностями, соответствующими областями провала информационной функции теста.

На рис.5.6.3. приведены информационные функции заданий с трудностями -1 (график №1), 0 (график №2) и 2,2 (график №3). Для теста, состоящего из этих трех заданий, информационная функция (график №4) имеет два максимума. Этот тест явно нуждается еще в  заданиях с трудностями  в области +1 логит. Улучшения информационной функции теста можно добиться и не изменяя числа заданий в нем. Для этого необходимо сдвинуть задание №3 влево, то есть уменьшить его трудность.

Характер информационной функции для двух- и трехпараметрической моделей в целом сохраняется.

В двух параметрической модели наклон характеристической кривой в точке θ = β может заметно превышать величину 0,25 для однопараметрической модели. С одной стороны это хорошо, так как информационная функция имеет довольно острый пик, а с другой – уменьшается рабочая область задания. Если в однопараметрической модели одно задание удовлетворительно перекрывает диапазон β ± 1 логит, то в двухпараметрической модели для этого же диапазона могут потребоваться два и более задания в зависимости от величины параметра дифференцирующей способности αj.

В трехпараметрической модели параметр псевдоугадывания cj заметно снижает точность оценок θ  и β, а также замедляет сходимость итерационных процедур, используемых для поиска устойчивых значений θ и β. Информационная функция достигает максимума в точке16

Расчеты информационной функции показывают, что с уменьшением cj происходит рост информативности задания. Это ясно и из общих соображений. Если cj характеризует угадывание, то ее большая величина свидетельствует об очень большом вкладе угадывания в результаты тестирования. Естественно, что эти результаты имеют мало общего с реальными знаниями испытуемых, то есть информативность теста в этом случае очень низкая.



Hosted by uCoz