Според резултатите за България на Програмата за международно оценяване на учениците - PISA 2006, почти половината от българските 15-годишни ученици (48.4%) са под критичното второ ниво на компетентност за използване на научни данни и доказателства. Това означава, че поне половината от нашите 15-годишни ученици не могат да анализират и оценяват критично получената информация и да приложат наученото на практика.
Тези данни наистина са тревожни, но по-обезпокоително е, че подобно неумение (или нежелание) за използване на научни данни и доказателства демонстрира и МОН. Аргумент в подкрепа на тази теза е фактът, че високият процент на зрелостниците, които не бяха отговаряли на задачите със свободен отговор, беше представен като една от "лошите новини" от матурата. Тази "новина" изобщо не е нова и организаторите на матура 2008 можеха да я предвидят, ако си бяха направили труда да прочетат внимателно цитирания по-горе доклад за резултатите от PISA 2006. Според изнесените в приложенията към доклада данни, докато при задачите с изборен отговор средният процент на неотговорилите български ученици е приблизително 5%, то при задачите със свободен отговор този процент е над 40%, като при някои задачи дори надхвърля 50%.
Според интерпретацията на просветния министър Даниел Вълчев това показва, че "учениците не могат да мислят самостоятелно". Възможна е обаче и друга интерпретация. При липсата на предварително оповестена система от оценъчни стандарти напълно възможно е около половината от зрелостниците чрез самостоятелно мислене да са стигнали до извода, че по-лесно, по-бързо и по-разумно е да фокусират вниманието си върху задачите с изборен отговор. Тези задачи сумарно им носят над два пъти повече точки от задачите със свободен отговор. При това задачите със свободен отговор изискват повече време и се оценяват субективно.
Тази нееднозначна ситуация можеше да се избегне сравнително лесно, ако беше използвана друга стратегия за оценка на резултатите. Например, вместо механично да се събират точките от двете части на изпита, можеше да се въведе като необходимо условие някакъв предварителен определен минимален праг (брой точки) за всяка отделна част. Разбира се, това предполага зрелостниците да бъдат уведомени предварително за начина на оценка на техните резултати, но подобна практика поне миналата година липсваше.
Друг аргумент в подкрепа на тезата за неспособността/нежеланието на МОН да използва по адекватен начин наличните научни данни и доказателства е "анализът" на резултатите от осемте представителни международни изследвания в областта на образованието, в които България е участвала до този момент (TIMSS - 1995, 1999, 2003, 2007; PIRLS - 2001, 2006; PISA - 2000, 2006). Такъв анализ на ниво МОН или изобщо липсва, или се ограничава с констатацията на кое място е България в списъка на страните участнички, или пък е попаднал в графата "класифицирана информация".
Ако експертите от МОН бяха на по-високо ниво на компетентност за използване на научни данни и доказателства от нашите 15-годишните ученици, то те щяха да се опитат да дадат отговор на въпроса защо в последните 13 години се наблюдава ярко изразена тенденция за значителен спад в качеството на образованието в България. Щяха да анализират степента на съответствие между спецификациите на тестовете, използвани в международните оценъчни изследвания, и нашите държавни образователни изисквания, съответните учебни програми и учебници. И биха предложили конкретни промени в съответното учебно съдържание и/или учебна документация. Освен това щяха да използват тестовите задачи, които вече са излезли от употреба и са станали публично достояние, за създаването на стандартизирани дидактически тестове за вътрешно оценяване. Подобен опит в това отношение има и неговите предимства са няколко - тестовете са с доказана надеждност и валидност, а резултатите им са приравнени не само към нашата шестобална скала за оценяване, но и към съответната международна скала.
Ако експертите на МОН бяха на по-високо ниво на компетентност, биха си задали и въпроса защо във всички международни изследвания се използват над 100 тестови задачи, докато в нашите национални външни изследвания за IV и V клас броят на задачите е 20-30. Как с помощта на 20-30 задачи може да се оцени дали учениците са постигнали очакваните учебни резултати (обикновено над 50) съгласно съответните държавни образователни изисквания? Впрочем вероятно биха се запитали и защо тези международни изследвания се провеждат веднъж на четири години, а не всяка година? Отговорът е много простичък: качествен измерителен инструментариум се прави бавно, трудно и струва скъпо. Този отговор може би щеше да доведе до прозрението, че провеждането на четири национални външни оценявания (IV, V, VI, VII клас и ДЗИ) за една година (2009) в рамките на два месеца е прекалено амбициозна задача за малка страна като България в период на икономическа криза и с липсата на достатъчно опит и кадри в областта на педагогическата диагностика. И накрая може би щяха да възприемат подобна политика на публичност - публикувайки не само примерни и конкретни задачи от съответния изпит, но и като оповестят качествата на използваните от тях тестове и осигурят пълен свободен достъп и до конкретните сурови данни. Това би дало възможност на тези, които могат и искат, да извършат допълнителен вторичен анализ на данните и може би да открият пътища за подобряване качеството на нашето образование.
Според Националната програма за развитие на училищното образование един от основните проблеми на българското образование е "липсата на система за национално външно оценяване". Ако беше така обаче, вместо с лекарства щяхме да се лекуваме с термометър. Е, ние вече си имаме "термометър", даже не български (национален), а вносен (международен). И този термометър показва, че българското образование е болно. Сега ни трябват доктор и рецепта, а не друг термометър.
---
Доц. Фелиянка Стоянова е преподавател по педагогическа диагностика във Факултета за начална и предучилищна педагогика в СУ.
|
|