行動計測の基礎:松田 壮一郎(筑波大学人間系 助教)
講師の専門である,臨床発達支援現場を事例として,最新のテクノロジー(ロボティクス,コンピュータビジョン,ウェアラブルデバイス)を活用しながら,どのように行動を計測すればよいのか,してきたかについての概要を講義する。特に,感情や共感,社会性などの心理学的事象について,計測をどのように検討していくかについて,概観する。更に,応用行動分析学を軸として,組織行動のマネジメントをいかに実践していくか,複数の事例を基に検討していく。遅刻や資料作成,ミスへの対処,期日の厳守,会議の運営など,具体的な事案について,(1)行動,(2)生活・健康,(3)システム,3つの視点からアセスメントし,行動コストの観点から,どのような対応が可能か,考えていく。
講師
松田 壮一郎 先生
筑波大学人間系 助教
日時
2024年07月04日(木)13:00~17:30(12:40より受付開始)第1部~第3部 13:00~16:50(休憩あり)
⇒アーカイブ配信中。視聴のお申込みは事務局(電子メールアプリが立ち上がります)までお問い合わせください!
場所
オンライン(Zoom)開催となりました。
お問い合せ先
本講義に関するご質問等は、「各種お問い合わせフォーム」より、お問い合わせください。
講師紹介
松田 壮一郎(まつだ そういちろう)先生
現職
- 筑波大学人間系 助教
経歴
- 2012年 – 2015年 日本学術振興会特別研究員(DC1)
- 2015年 慶應義塾大学大学院社会学研究科心理学専攻博士課程 単位取得満期退学
- 2015年 – 2018年 日本学術振興会特別研究員(PD)
- 2017年 Visiting Scholar (Center for Autism Research, Children’s Hospital of Philadelphia)
- 2018年 – 現在 筑波大学人間系 助教
研究概要
最新の行動イメージング技術を用いた、人-人インタラクションの機能解明と障害支援。特に、自閉スペクトラム症未就学児を対象とした早期発達支援、社会的刺激に対する眼球運動、対人相互作用の計測と促進、コンピュータに基づく訓練、保護者支援、応用行動分析学に興味を持つ。
主な業績
- Response Interruption and Redirectionにスクリプトを付加した介入による自閉スペクトラム症児の独語行動の減少効果と保護者による適用可能性 林詩穂里; 真名瀬陽平; 藤本夏美; 松田壮一郎; 野呂 文行 行動分析学研究/36(2)/pp.130-138, 2022-03
- Smiles as a Signal of Prosocial Behaviors Toward the Robot in the Therapeutic Setting for Children With Autism Spectrum Disorder, Kim SunKyoung; Hirokawa Masakazu; Matsuda Soichiro; Funah…, Frontiers in Robotics and AI/8(599755)/pp.1-16, 2021-05
- Smiles as a Signal of Prosocial Behaviors Toward the Robot in the Therapeutic Setting for Children With Autism Spectrum Disorder, Kim Sunkyoung; Hirokawa Masakazu; Matsuda Soichiro; Funah…, Frontiers in Robotics and AI/8, 2021-05
- なぜ、感染した人を非難してはいけないか?人間行動の法則から解説する 心と社会/(182)/pp.37-42, 2020-12
PubMed
- Interest Arousal by Haptic Feedback During a Storytelling for Kindergarten Children, Shibasaki Mina; Kamiyama Youichi; Czech Elaine; Obata Ko…, EuroHaptics 2020: Haptics: Science, Technology, Applications/pp.518-526, 2020-09
- Smles of Children with ASD May Facilitate Helping Behaviors to the Robot, Kim SunKyoung; Hirokawa Masakazu; Matsuda Soichiro; Funah…, International Conference on Social Robotics/pp.55-64, 2018-11