Исследование показывает новый экспериментальный формат, который использует данные из системы, которая отслеживает «взгляд» студентов с камерами, также документируя отдельные решающие проблему методы с «smartpens», которые делают запись почерка и аудио. В отличие от предыдущего исследования, новый подход определяет заказ, в котором студент выполняет определенные действия, которые могли быть крайне важны для успеха решающих проблему методов, сказал Эдвард Бергер, адъюнкт-профессор Университета Пердью технического образования и машиностроения.
Двадцать четыре студента участвовали в исследовании.«Мы даем им проблему решить, и мы делаем запись их действий, поскольку они сотрудничают с видео», сказал он. «Все в мире делают учебные видео теперь. Но то, что мы в настоящее время не понимаем, точно, как студенты используют видео в поддержку своего решения задач.
Таким образом, мы наблюдаем, что они используют видео, в то время как они решают проблему, которая не была сделана прежде ни в какой значительной глубине».Результаты предполагают, что решающие проблему методы студентов могут быть широко описаны несколькими «архетипами».«Если мы можем определить, какие архетипы более успешны, тогда мы можем применить то знание, чтобы лучше тренировать студентов», сказал Бергер. «Мы можем сказать, вот образец использования, которое мы видим в студентах, которые действительно хороши в решении этого типа проблемы».
Исследование детализировано в газете, представляемой во время американского Общества Ежегодной конференции Технического Образования & Выставки, 26-29 июня в Новом Орлеане. Бумага была создана Бергером и докторантом Майклом Уилсоном. Видео об исследовании доступно в https://youtu.be/y8jbsf2Abio.Студенты были оценены на основании проблемы, и их сорта также были зарегистрированы во время курса машиностроения уровня второкурсника, который позволяет студентам получать доступ к сотням учебных видео и анимации.
Эксперимент занимает приблизительно 30 минут, чтобы закончить.«У нас есть кодовая структура, чтобы характеризовать различные действия и определить количество точно, что делает студент», сказал Бергер. «Эти действия могли быть чем-то, что они пишут, что-то, что они делают с видео и даже чем-то, что они говорят, потому что мы приказываем студентам говорить вслух во время осуществления. Мы определяем и пытаемся понять эти архетипы».Среди этих 24 студентов исследователи определили приблизительно четыре таких архетипа к настоящему времени.
«Скажите, что они заняли 25 минут, чтобы сделать эту проблему, они провели восемь минут, смотря на видео, и здесь точно, на что они смотрели в видео, в то время как они решили проблему. Они наблюдали ту же самую часть видео несколько раз? Они сосредотачивались на диаграмме или уравнении или чем-то еще?
Тогда мы смотрим на все данные и говорим, ‘каковы ключевые вещи, которые они сделали, когда они решали эту проблему и как они сотрудничали с видео?’»Действия тогда картируются, используя систему «кодовых полос», чтобы визуализировать определенные подходы, и студенты инструментов раньше решали проблему, и в какой заказ.Эксперименты связаны с областью исследования, названного познавательной теорией груза, которая пытается сломаться, как трудно мозг работает в конкретной задаче.
«Проблема состоит в том, что действительно трудно точно измерить познавательный груз, и мы используем один из нескольких доступных подходов», сказал Бергер. «Мы пытаемся понять, как доступ к видео помогает студенту решить проблемы. Это помогает им управлять своим познавательным грузом, в то время как они делают проблему?»Будущая работа будет стремиться окончательно определять различные архетипы.Исследователи Пердью также проводят новый проект, финансируемый Национальным научным фондом, чтобы понять, как студенты используют видео в Механике Пердью Класс Freeform, введенный впервые Чарльзом Крусгриллом, преподавателем машиностроения.
Подход Класса Freeform использовался с 2011 в двух курсах ядра машиностроения с сотнями студентов, регистрируемых ежегодно. Новое исследование во главе с Дженнифер Дебоэр, доцентом технического образования.