九州工業大学

大学院情報工学研究院

知能情報工学研究系

齊藤・張 研究室


研究成果



❖ 学術論文

  1. Matthew Kit Khinn Teng, Haibo Zhang and Takeshi Saitoh (2024). LGNMNet-RF: Micro-Expression Detection Using Motion History Images, Algorithms, 17(11), 491, DOI: 10.3390/a17110491, ❐ web
  2. Abdul Jalil, Jun Kobayashi and Takeshi Saitoh (2023). Performance Improvement of Multi-Robot Data Transmission in Aggregated Robot Processing Architecture with Caches and QoS Balancing Optimization, Robotics, 12(3), 87, DOI: 10.3390/robotics12030087, ❐ web
  3. Taiki Arakane and Takeshi Saitoh (2023). Efficient DNN Model for Word Lip-Reading, Algorithms, 16(6), 269, DOI: 10.3390/a16060269, ❐ web
  4. Tatsuya Kanamaru, Taiki Arakane and Takeshi Saitoh (2023). Isolated single sound lip-reading using a frame-based camera and event-based camera, Frontiers in Artificial Intelligence, 5, 1070964, DOI: 10.3389/frai.2022.1070964, ❐ web
  5. Keiko Tsuchiya, Frank Coffey, Kyota Nakamura, Andrew Mackenzie, Sarah Atkins, Małgorzata Chałupnik, Alison Whitfield, Takuma Sakai, Stephen Timmons, Takeru Abe, Takeshi Saitoh, Akira Taneichi, Mike Vernon, David Crundall, Miharu Fuyuno (2022). Action request episodes in trauma team interactions in Japan and the UK - A multimodal analysis of joint actions in medical simulation, Journal of Pragmatics, 194, pp.101-118, DOI: 10.1016/j.pragma.2022.04.009 ❐ web
  6. Tsukasa Shiota, Kouki Honda, Kazutaka Shimada and Takeshi Saitoh (2020). Development and Application of Leader Identification Model Using Multimodal Information in Multi-Party Conversations, International Journal of Asian Language Processing, Vol.30, No.4, DOI: 10.1142/S2717554520500198, ❐ web
  7. Kyota Nakamura, Takuma Sakai, Takeru Abe, Takeshi Saitoh, Frank Coffey, Andrew MacKenzie, Akira Taneichi, Keiko Tsuchiya (2020). A team leader's gaze before and after making requests in emergency care simulation: A case study with eye-Tracking glasses, BMJ Simulation and Technology Enhanced Learning, 6(6), pp.369-370, DOI: 10.1136/bmjstel-2019-000561 ❐ web
  8. 齊藤 剛史,坂本 一樹,伊藤 和幸,白井 誠 (2020).眼球運動を利用した呼び出しシステムの開発,地域ケアリング,Vol.22, No.12, 2020年11月号❐ web
  9. Tatsuya Shirakata, Takeshi Saitoh (2020). Lip reading using facial expression features. International Journal of Computer Vision & Signal Processing (IJCVSP), 10(1) pp.9-15. ❏ pdf
  10. Miharu Fuyuno, Takeshi Saitoh, Yuko Yamashita, Daisuke Yokomori (2020). Gaze-Point Analysis of EFL Learners while Watching English Presentations: Toward Effective Teaching. International Journal for Educational Media and Technology, 14(1), pp.17-28. ❏ pdf
  11. 齊藤 剛史,中村 祐哉,伊藤 和幸,白井 誠(2020).神経難病患者向けの口形の動きを利用したコミュニケーション支援に関する研究地域ケアリング,Vol.22,No.10,pp.42-43.❐ web
  12. Keiko Tsuchiya, Akira Taneichi, Kyota Nakamura, Takuma Sakai, Takeru Abe, Takeshi Saitoh (2019). A leader’s request and rapport in emergency care simulation: a multimodal corpus analysis. 日本ヘルスコミュニケーション学会雑誌, 10(1), pp.36-41. ❏ pdf
  13. Miharu Fuyuno, Rinko Komiya, and Takeshi Saitoh (2018). Multimodal analysis of public speaking performance by EFL learners: Applying deep learning to understanding how successful speakers use facial movement. Asian Journal of Applied Linguistics, 5(1), pp.117-129. ❐ web
  14. Warapon Chinsatit and Takeshi Saitoh (2017). CNN-Based Pupil Center Detection for Wearable Gaze Estimation System. Applied Computational Intelligence and Soft Computing, Vol.2017. ❐ web
  15. Rinko Komiya, Takeshi Saitoh, Miharu Fuyuno, Yuko Yamashita, and Yoshitaka Nakajima (2017). Head Pose Estimation and Motion Analysis of Public Speaking Videos. International Journal of Software Innovation (IJSI), Vol.5, Issue.1 pp.57-71.
  16. Takeshi Saitoh, Toshiki Shibata and Tsubasa Miyazono (2016). Feature Points based Fish Image Recognition. International Journal of Computer Information Systems and Industrial Management Applications, 8. pp.12-22. ❏ pdf
  17. Trung Hieu Bui, Takeshi Saitoh, and Eitaku Nobuyama (2014). Vanishing Point-Based Road Detection for General Road Images. IEICE Transactions on Information and Systems, E97-D(3). pp.618-621.
  18. Takeshi Saitoh (2013). Development of Communication Support System Using Lip Reading. IEEJ Transactions on Electrical and Electronic Engineering. 8(6). pp.574-579. doi: 10.1002/tee.21898.
  19. 齊藤 剛史,今村 将訓,福井 幸美 (2013).画像処理による割り箸原形の外観検査システムの開発,電子情報通信学会論文誌,Vol.J96-D,No.10,pp.2570-2579.
  20. Trung Hieu Bui, Eitaku Nobuyama, and Takeshi Saitoh (2013). A Texture-Based Local Soft Voting Method for Vanishing Point Detection from a Single Road Image. IEICE Transactions on Information and Systems. E96-D(3). pp.690-698.
  21. Takeshi Saitoh and Ryosuke Konishi (2011). Real-time word lip reading system based on trajectory feature. IEEJ Transactions on Electrical and Electronic Engineering. 6(3). pp.289-291. doi: 10.1002/tee.20658.
  22. 齊藤 剛史,森下 和敏,小西 亮介(2011).発話シーンからのキーフレーム検出とキーフレームに基づく単語読唇,電気学会論文誌,Vol.131,No.2,pp.418-424.
  23. 明山 寛史,川村 尚生,笹間 俊彦,菅原 一孔,齊藤 剛史,小西 亮介(2010).スケジューリングによる待機電力削減機能を持つ多機能コンセントの開発,情報処理学会論文誌,Vol.51,No.12,pp.2287-2297,2010.12.
  24. Takeshi Saitoh, Tomoyuki Osaki, Ryosuke Konishi, and Kazunori Sugahara (2010). Current Sensor based Home Appliance and State of Appliance Recognition. SICE Journal of Control, Measurement, and System Integration. 3(2). pp.86-93.
↑ Top


❖ 国際学会発表論文

  1. Shinno Natchapol, Haibo Zhang, Takeshi Saitoh (2024) Gaze Attention Estimation for Medical Environments. 12th International Symposium on Applied Engineering and Sciences (SAES2024), OS1-4, 2024.11.
  2. Haibo Zhang, Kouichi Sakurai, Takeshi Saitoh (2024) Leveraging Image-to-Image Translation for Enhanced Adversarial Defense. 12th International Symposium on Applied Engineering and Sciences (SAES2024), OS1-1, 2024.11.
  3. Matthew Teng Kit Khinn, Takeshi Saitoh (2023) Facial micro- and macro-expression spotting using motion history images. 11th International Symposium on Applied Engineering and Sciences (SAES2023), pp.130-131, 2023.11.
  4. Kazuya Bise, Takeshi Saitoh, Keiko Tsuchiya, Hitoshi Sato, Kyota Nakamura, Takeru Abe, Frank Coffey (2024) Joint Attention Detection using First-Person Points-of-View Video. 2nd International Conference on Computer Graphics and Image Processing (CGIP 2024), 2024.1.
  5. Yuki Furuya, Takeshi Saitoh, Keiko Tsuchiya, Hitoshi Sato, Kyota Nakamura, Takeru Abe, Frank Coffey (2024) Efficient Construction of Face Image Dataset for Head Pose Estimation. 2nd International Conference on Computer Graphics and Image Processing (CGIP 2024), 2024.1.
    Best Presentation Award
  6. Matthew Teng Kit Khinn, Takeshi Saitoh (2023) Facial micro- and macro-expression spotting using motion history images. 11th International Symposium on Applied Engineering and Sciences (SAES2023), pp.130-131, 2023.11.
  7. Tatsuya Kanamaru, Takeshi Saitoh (2023). KuchiNavi: lip-reading-based navigation app. 15th International Conference on Graphics and Image Processing (ICGIP2023).
  8. Towa Yamabe, Takeshi Saitoh (2023). Construction of a new database for Japanese lip-reading. 15th International Conference on Graphics and Image Processing (ICGIP2023).
  9. Frank Coffey, John-Joe Reilly, Andrew Mackenzie, Kazuya Bise, Takeshi Saitoh, Megan Meredith, Lucy Ryan, Stephen Timmons, Keiko Tsuchiya (2023) When a doctor and a nurse share their view in a simulated emergency care interaction: developing an automatic gaze annotation method for multiple eye-tracking data analysis. RCEM (Royal College of Emergency Medicine) Annual Scientific Conference, 2023.9.abstract
  10. Taiki Arakane, Chihiro Kai, Takeshi Saitoh. Can You Read Lips with a Masked Face?. IAPR 18th International Conference on Machine Vision Applications (MVA2023), P2-11, 2023.7.
  11. Abdul Jalil, Jun Kobayashi, Takeshi Saitoh (2023). Optimization Algorithm for Balancing QoS Configuration in Aggregated Robot Processing Architecture. International Conference on Artificial Life and Robotics (ICAROB2023), pp.928-932, 2023.2.
  12. Kyohei Hamasaki, Jun Kobayashi, Takeshi Saitoh (2023). Pattern classification and data augmentation of motor imagery EEG signals based on spectrograms. AROB-ISBC-SWARM2023, pp.665-668, 2023.1.
  13. Ploywow Nhuthep, Takeshi Saitoh, Kazuyuki Itoh (2023). CNN-based pupil center point detection using infrared face image. AROB-ISBC-SWARM2023, pp.660-664, 2023.1.

  14. Taiki Arakane, Takeshi Saitoh, Ryuuichi Chiba, Masanori Morise, Yasuo Oda (2022). Conformer-Based Lip-Reading for Japanese Sentence. International Conference on Image and Vision Computing New Zealand (IVCNZ2022), 2022.11. link
  15. Towa Yamabe, Takeshi Saitoh (2022). Vision Transformer-Based Bark Image Recognition for Tree Identification. International Conference on Image and Vision Computing New Zealand (IVCNZ2022), 2022.11. link

  16. Yuya Nakamura, Takeshi Saitoh, Kazuyuki Itoh (2021). 3DCNN-based mouth shape recognition for patient with intractable neurological diseases. 13th International Conference on Graphics and Image Processing (ICGIP2021).
  17. Michinari Kodama, Takeshi Saitoh (2021). Replacing speaker-independent recognition task with speaker-dependent task for lip-reading using First Order Motion Model Paper. 13th International Conference on Graphics and Image Processing (ICGIP2021).
  18. Tatsuya Shirakata and Takeshi Saitoh. Japanese Sentence Dataset for Lip-reading. IAPR 17th International Conference on Machine Vision Applications (MVA2021), P1-15, 2021.7.
  19. Miharu Fuyuno and Takeshi Saitoh. Multimodal Corpus Analysis of English Presentations for EFL teaching: Speech Contents, Speakers' Behavior and Gaze Points of Audience. 12th International Conference on Corpus Linguistics (CILC2021), pp.22-23, online, 2021.4.

  20. Kazuki Sakamoto, Takeshi Saitoh, Kazuyuki Itoh. Night Time Calling System by Eye Movement using Wearable Camera. 8th International Joint Symposium on Applied Engineering and Sciences (SAES2020), 2020.12.
  21. Tsukasa Shiota, Kouki Honda, Kazutaka Shimada, Takeshi Saitoh. Leader Identification Using Multimodal Information in Multi-party Conversations. International Conference on Asian Language Processing (IALP), 2020.12.
  22. Tatsuya Shirakata, Takeshi Saitoh (2020). Lip Reading using Facial Expression Features. 4th International Conference on Imaging, Vision & Pattern Recognition (IVPR2020).
  23. Kazuki Sakamoto, Takeshi Saitoh, Kazuyuki Itoh (2020). Development of Night Time Calling System by Eye Movement using Wearable Camera. HCI International 2020, Volume 12426, LNCS, 2020, pp.345-357, DOI: 10.1007/978-3-030-60149-2_27.
  24. Kyota Nakamura, Takuma Sakai, Takeru Abe, Takeshi Saitoh, Frank Coffe, Andrew MacKenzie, Akira Taneichi, Keiko Tsuchiya (2020). A team leader’s gaze before and after making requests in emergency care simulation: a case study with eye-tracking glasses. BMJ Simulation and Technology Enhanced Learning

  25. Junya Ido, Takeshi Saitoh (2019). Automatic tree species identification from natural bark image. 11th International Conference on Graphics and Image Processing (ICGIP2019).
  26. Kyota Nakamura, Takuma Sakai, Takeru Abe, Takeshi Saitoh, Akira Taneichi, Keiko Tsuchiya (2019). Capturing a leader's view in emergency care simulation: developing a GUI for automatic gaze coding. International Forum on Quality and Safety in Healthcare 2019, 2019.9.
  27. Tatsuya Shirakata and Takeshi Saitoh. Lip Reading Experiments for Multiple Databases Using Conventional Method. SICE Annual Conference, WeC02.2, pp.409-414,2019.9.
  28. Takeshi Saitoh and Michiko Kubokawa. LiP25w: Word-level Lip Reading Web Application for Smart Device. 15th International Conference on Auditory-Visual Speech Processing (AVSP2019), 2019.8.
  29. Keiko Tsuchiya, Takeshi Saitoh, Kyota Nakamura, Takuma Sakai, Takeru Abe, Akira Taneichi (2019). Automatic coding of a team leader's eyegaze in emergency care simulation: developing a multimodal corpus with the sceneAnalysis GUI. The 10th International Corpus Linguistics Conference (CL2019), 2019.7.

  30. Takeshi Saitoh, Iori Yamada, and Yu Yoshioka. Excretion Prediction using Nursing Record System Log Data. SICE Annual Conference, FeB07.5, pp.1618-1623,2018.9.
  31. Naoyuki Kan, Nagisa Kondo, Warapon Chinsatit, and Takeshi Saitoh. Effectiveness of Data Augmentation for CNN-Based Pupil Center Point Detection. SICE Annual Conference, WeA02.4, pp.41-46,2018.9.
  32. Takuma Sakai, Kyota Nakamura, Takeshi Saitoh, and Keiko Tsuchiya. Analysing a leader's eye gaze in emergency care simulation. International Forum on Quality & Safety in Healthcare, 180, 2018.9.
  33. Tsuchiya, K., Taneichi, A., Nakamura, K., Sakai, T., Abe, T., and Saitoh, T. (2018). Making requests in emergency care simulation: gaze and politeness strategies as turn allocation devices. The 8th Conference of Japanese Association of Health Communication, Fukuoka, September 2018.
  34. Takeshi Saitoh and Michiko Kubokawa. SSSD: Speech Scene Database by Smart Device for Visual Speech Recognition. 24th International Conference on Pattern Recognition (ICPR2018),pp.3228-3232,2018.8.
  35. Rinko Komiya, Takeshi Saitoh, and Kazutaka Shimada. Image-based Attention Level Estimation of Interaction Scene by Head Pose and Gaze Information. 17th IEEE/ACIS International Conference on Computer and Information Science (ICIS2018), pp.497-501, 2018.6.6-8.

  36. Rinko Komiya, Takeshi Saitoh, and Kazutaka Shimada. Image-based Attention Estimation for Interaction Scene. International Conference on Information and Communication Technology Robotics (ICT-ROBOT2017), 104A2, 2017.11.25-26.
  37. Seungsu Lee and Takeshi Saitoh. Head Pose Estimation Using Convolutional Neural Network. Proc. of 7th iCatse International Conference on IT Convergence and Security (ICITCS2017), Lecture Notes in Electrical Engineering 449, pp.164-171,2017.9.
  38. Tsubasa Miyazono and Takeshi Saitoh. Fish Species Recognition Based on CNN Using Annotated Image. Proc. of 7th iCatse International Conference on IT Convergence and Security (ICITCS2017), Lecture Notes in Electrical Engineering 449, pp.156-163,2017.9.
  39. Nagisa Kondo, Warapon Chinsatit, and Takeshi Saitoh. Pupil Center Detection for Infrared Irradiation Eye Image Using CNN. Proc. of SICE Annual Conference, WeA05.2, pp.100-105,2017.9.
  40. Tomoya Kodama, Tomoki Koyama, and Takeshi Saitoh. Kinect Sensor Based Sign Language Word Recognition by Mutli-Stream HMM. Proc. of SICE Annual Conference, WeA05.1, pp.94-99,2017.9.
  41. Michiko Kubokawa and Takeshi Saitoh. Intensity Correction Effect for Lip Reading. 28th British Machine Vision Conference (BMVC2017) workshop on Lip-Reading using Deep Learning Methods (LRDLM2017), 2017.9.7.
  42. Masaya Iwasaki, Michiko Kubokawa, and Takeshi Saitoh. Two Features Combination with Gated Recurrent Unit for Visual Speech Recognition. IAPR International Conference on Machine Vision Applications (MVA2017), 09-24, pp.300-303, 2017.5.8-12
    Best Poster Award

  43. Takeshi Saitoh, Ziheng Zhou, Guoying Zhao, and Matti Pietikainen. Concatenated Frame Image based CNN for Visual Speech Recognition. ACCV2016 workshop: Multi-view Lip-reading/Audio-visual Challenges (MLAC2016), 2016.11.20.
  44. Masaya Iwasaki and Takeshi Saitoh. LBP-TOP based Facial Expression Recognition using Non Rectangular ROI. International Conference on Information and Communication Technology Robotics (ICT-ROBOT2016), ThBT2.2, 2016.9.7-9.
  45. Warapon Chinsatit and Takeshi Saitoh. CNN for pupil center detection. International Conference on Information and Communication Technology Robotics (ICT-ROBOT2016), ThBT2.1, 2016.9.7-9.
  46. Warapon Chinsatit and Takeshi Saitoh. Improve the Performance of Eye Detection Method for Inside-Out Camera. 15th IEEE/ACIS International Conference on Computer and Information Science (ICIS2016), pp.415-420, 2016.6.
  47. Rinko Komiya, Takeshi Saitoh, Miharu Fuyuno, Yuko Yamashita, and Yoshitaka Nakajima. Head Pose Estimation and Movement Analysis for Speech Scene. 15th IEEE/ACIS International Conference on Computer and Information Science (ICIS2016), pp.409-413, 2016.6.
  48. Warapon Chinsatit, Masataka Shibuya, Kenji Kawada, and Takeshi Saitoh. Character Input System using Gaze Estimation. 2nd International Conference on Communication Systems and Computing Application Science (CSCAS2016), #21, 2016.3.
  49. Miharu Fuyuno, Yuko Yamashita, Takeshi Saitoh, and Yoshitaka Nakajima. Semantic Structure, Spech Units and Facial Movements: Multimodal Corpus Analysis of English Public Speaking. 8th International Conference on Corpus Linguistics (CILC2016), #100, p.19, 2016.3.

  50. Takeshi Saitoh, Toshiki Shibata, and Tsubasa Miyazono. Image-based fish recognition. 7th International Conference on Soft Computing and Pattern Recognition (SoCPaR2015), pp.260-263, 2015.11.
  51. Takeshi Saitoh, Toshihiro Iwata, and Kentaro Wakisaka. OKIRAKU Search: Leaf Images based Visual Tree Search System. IAPR International Conference on Machine Vision Applications (MVA2015), 10-2, pp.242-245, 2015.5.
  52. Jun Shiraishi and and Takeshi Saitoh. Optical Flow based Lip Reading using Non Rectangular ROI and Head Motion Reduction. 11th IEEE International Conference on Automatic Face and Gesture Recognition (FG2015), 2015.5.

  53. Ryoji Fukuda, Junki Iwagami, and Takeshi Saitoh. Applicability of Gaze Points for Analyzing Priorities of Explanatory Elements in Mathematical Documents. 19th Asian Technology Conference in Mathematics, 2014.11.
  54. Junki Iwagami and Takeshi Saitoh. Easy Calibration for Gaze Estimation using Inside-Out Camera. 20th Korea-Japan Joint Workshop on Frontiers of Computer Vision (FCV2014), 57, pp.292-297,2014.2.
  55. Yuki Takasaki, Takeshi Saitoh and Tomoki Koyama. Eigenlips using RGB-D Cameras for Lip Reading. 20th Korea-Japan Joint Workshop on Frontiers of Computer Vision (FCV2014), 34, pp.180-183,2014.2.
  56. Yuki Takasaki, Kenta Hara, Tomoki Koyama and Takeshi Saitoh. Eigenlips based lip reading using Kinect sensor. Proc. of 2nd BMIRC International Symposium, p.52,2014.1.
  57. Tomoki Koyama and Takeshi Saitoh. Japanese sign language recognition using Kinect sensor. Proc. of 2nd BMIRC International Symposium, p.51,2014.1.
  58. Takeshi Saitoh. Lip reading for communication support. Proc. of 2nd BMIRC International Symposium, p.19,2014.1.

  59. Junki Iwagami and Takeshi Saitoh. Gaze Estimation using Inside-Out Camera for First Person Vision. 45th ISCIE International Symposium on Stochastic Systems Theory and Its Applications, FB3-2, pp.75-76,2013.11.
  60. Hiroki Nishino and Takeshi Saitoh. Automatic Moving Person Detection in Lecture Scene. 45th ISCIE International Symposium on Stochastic Systems Theory and Its Applications, FB1-3, pp.15-16,2013.11.
  61. Toshiriro Iwata and Takeshi Saitoh. Tree Recognition based on Leaf Images. Proc. of SICE Annual Conference, pp.2489-2494,2013.9.
  62. Trung Hieu Bui, Takeshi Saitoh and Eitaku Nobuyama. Road Area Detection Based on Texture Orientations Estimation and Vanishing Point Detection. Proc. of SICE Annual Conference, pp.1138-1143,2013.9.
  63. Takeshi Saitoh. Efficient Face Model for Lip Reading. 12th International Conference on Auditory-Visual Speech Processing (AVSP2013),pp.227-232,2013.8.
  64. Takeshi Saitoh, Masanori Imamura and Yukimi Fukui. Development of Initial Inspection System for Wooden Chopsticks by Image Processing. Proc. of 11th International Conference on Quality Control by Artificial Vision (QCAV2013), pp.75-80,2013.5.
  65. Junki Iwagami and Takeshi Saitoh. Gaze point detection using inside-out camera. Proc. of 1st BMIRC International Symposium on Frontiers in Computational Systems Biology and Bioengineering, p.48,2013.2.
  66. Kai Inoue and Takeshi Saitoh. A study of real-time finger character recognition using Kinect. Proc. of 1st BMIRC International Symposium on Frontiers in Computational Systems Biology and Bioengineering, p.47,2013.2.

  67. Trung Hieu Bui, Eitaku Nobuyama and Takeshi Saitoh. Road Detection Based on an Estimated Vanishing Point and Color Information. Proc. of International Conference on Computer Vision, Image and Signal Processing(ICCVISP2012), World Academy of Science, Engineering and Technology,Issue 71, pp.1748-1753,2012.11.
  68. Takeshi Saitoh and Toshihiro Iwata. Leaf Recognition using Shape and Color Features. Proc. of International Conference on Computer Vision, Image and Signal Processing(ICCVISP2012), World Academy of Science, Engineering and Technology,Issue 71, pp.1734-1739,2012.11.

  69. Takeshi Saitoh. Real-time Lip Reading System for Fixed Phrase and Its Combination. 1st Asian Conference on Pattern Recognition (ACPR2011),pp.461-464,2011.11.
  70. Takeshi Saitoh. Development of Communication Support System using Lip Reading. 10th International Conference on Auditory-Visual Speech Processing (AVSP2011),pp.117-122,2011.9.
  71. Takeshi Saitoh. Development of Inspection System for Wooden Chopsticks. IAPR Conference on Machine Vision Applications (MVA 2011),9-5,pp.247-250,2011.6.

  72. Takeshi Saitoh and Ryosuke Konishi. A study of influence of word lip reading by change of frame rate. 9th International Conference on Auditory-Visual Speech Processing (AVSP2010),pp.131-136,2010.10.
  73. Takeshi Saitoh and Ryosuke Konishi. Profile Lip Reading for Vowel and Word Recognition. 20th International Conference on Pattern Recognition (ICPR2010),pp.1356-1359,2010.8.
↑ Top


❖ 国内学会発表論文

  1. 佐藤 光希,荒金 大清,張 海波,齊藤 剛史.生成モデルによる発話シーンを利用した日本語文章読唇.第27回 画像の認識・理解シンポジウム(MIRU2024),IS-3-116,熊本城ホール(熊本県熊本市),2024.8.
  2. Matthew Teng Kit Khinn, Haibo Zhang, Takeshi Saitoh.Exploring Motion History Images with LGNMNet-RF for Micro-Expression Spotting.第27回 画像の認識・理解シンポジウム(MIRU2024),IS-3-115,熊本城ホール(熊本県熊本市),2024.8.
  3. 荒金 大清,齊藤 剛史.PC用リアルタイム読唇アプリ「クチヨミ」の開発.ヒューマンインタフェース学会研究報告集,Vol.26,No.2,pp.49-54,京都工芸繊維大学(京都府京都市),2024.3.
  4. マシューテンキットキン,齊藤 剛史.Motion History Image-based Approach to Micro and Macro Expression Detection.動的画像処理実利用化ワークショップ2024(DIA2024),OS2-2(IS2-2),pp.179-185,別府国際コンベンションセンタービーコンプラザ(大分県別府市),2024.3.
  5. 荒金 大清,齊藤 剛史.知識の蒸留を用いた文章読唇モデルの軽量化の検討.動的画像処理実利用化ワークショップ2024(DIA2024),IS1-29,pp.146-149,別府国際コンベンションセンタービーコンプラザ(大分県別府市),2024.3.
  6. 佐藤 仁,中村 京太,安部 猛,齊藤 剛史,備瀬 和也,古谷 優樹,土屋 慶子.AI技術を用いた手術チームの共同行為分析:医療者間共同注視と相互凝視の自動検出手法の検討,第18回医療の質・安全学会学術集会,P-142,神戸国際展示場・神戸国際会議場,2023.11.
  7. 山部 透羽,齊藤 剛史.天気ニュースを利用した読唇用データベースの構築,第10回サイレント音声認識ワークショップ(SSRW2023),7,九州工業大学&オンライン(ハイブリッド開催),2023.10.
  8. 荒金 大清,齊藤 剛史.画像ベースモデルと特徴点ベースモデルを統合した日本語文章読唇,第10回サイレント音声認識ワークショップ(SSRW2023),6,九州工業大学&オンライン(ハイブリッド開催),2023.10.
  9. 金丸 竜也,齊藤 剛史.クチナビ:読唇技術を利用したナビゲーションアプリ,第10回サイレント音声認識ワークショップ(SSRW2023),1,九州工業大学&オンライン(ハイブリッド開催),2023.10.
    学生研究奨励賞受賞
  10. ヌーテープ プロイワオ,玉井 龍斗,齊藤 剛史,伊藤 和幸.瞳孔中心検出による目の動きを利用した非接触型アイスイッチ,電子情報通信学会 福祉情報工学研究会,WIT2023-18,九州工業大学&オンライン,2023.10.
  11. 荒金 大清,齊藤 剛史.画像ベースモデルと特徴点ベースモデルを統合した日本語文章読唇.第26回 画像の認識・理解シンポジウム(MIRU2023),IS3-105,アクトシティ浜松(静岡県浜松市),2023.7.
  12. 古谷 優樹,齊藤 剛史,土屋 慶子,中村 京太,佐藤 仁,安部 猛.効率的な頭部姿勢推定用顔画像データセットの構築.第26回 画像の認識・理解シンポジウム(MIRU2023),IS3-42,アクトシティ浜松(静岡県浜松市),2023.7.
  13. 権藤 優季,中村 祐哉,齊藤 剛史,伊藤 和幸.神経難病患者の発話シーンに対する口形認識,電子情報通信学会 福祉情報工学研究会,WIT2022-24,pp.27-31,オンライン,2023.3.
    令和5年度ヒューマンコミュニケーション賞受賞
  14. 甲斐 千裕,荒金 大清,齊藤 剛史.マスク顔画像で読唇できる?.動的画像処理実利用化ワークショップ2023(DIA2023),OS3-1,pp.335-339,ライトキューブ宇都宮(栃木県宇都宮市),2023.3.
  15. 齊藤 剛史,後藤 悠斗,長野 紘之,加藤 暁浩,能勢 将樹,平元 尚貴,服部 智大,青山 椎耶,加藤 夕祐,戸嶋 隆太,長脇 拓海,田村 哲嗣,荒金 大清.第3回機械読唇チャレンジ報告,電子情報通信学会 パターン認識とメディア理解研究会,PRMU2022-76,pp.97-101,はこだて未来大学&オンライン(ハイブリッド開催),2023.3.
  16. 児玉 道成,齊藤 剛史.メタ学習を用いた単語読唇の検討,電子情報通信学会 パターン認識とメディア理解研究会,PRMU2022-77,pp.102-106,はこだて未来大学&オンライン(ハイブリッド開催),2023.3.

  17. 荒金 大清,齊藤 剛史.日本語文章発話シーンデータベースの構築および日本語文章読唇,第9回サイレント音声認識ワークショップ(SSRW2022),11,京都大学&オンライン(ハイブリッド開催),2022.10.
    学生研究奨励賞受賞
  18. 児玉 道成,齊藤 剛史.少数データに対する読唇技術に関する研究,第9回サイレント音声認識ワークショップ(SSRW2022),8,京都大学&オンライン(ハイブリッド開催),2022.10.
  19. 甲斐 千裕,齊藤 剛史.マスク装着顔画像に対する単語読唇,第9回サイレント音声認識ワークショップ(SSRW2022),7,京都大学&オンライン(ハイブリッド開催),2022.10.
  20. 備瀬 和也,齊藤 剛史,土屋 慶子,佐藤 仁,中村 京太,安部 猛,藤井 ありさ,宮崎 敦.麻酔科医の視線行動を含むマルチモーダル分析に向けて:ウェアラブルカメラによる共同注視探索の試み.第14回 日本ヘルスコミュニケーション学会学術集会,AD1-06P-HC,pp.137-138,金城学院大学&オンライン(ハイブリッド開催),2022.10.
  21. 伊藤 和幸,中山 剛,依田 育士,齊藤 剛史,井上 剛伸.意思伝達支援に向けた重度運動機能障害者の動きの検出システム,LIFE2022(第21回日本生活支援工学会大会),online,2022.8.
  22. 荒金 大清,齊藤 剛史,千葉 隆壱,森勢 将雅,小田 恭央.日本語文章発話シーンデータベースの構築および日本語文章読唇.第25回 画像の認識・理解シンポジウム(MIRU2022),IS1-98,姫路市文化コンベンションセンター アクリエひめじ(兵庫県姫路市),2022.7.
  23. 山部 透羽,齊藤 剛史.Vision Transformerを用いた樹皮画像認識,第28回 画像センシングシンポジウム(SSII2022),IS1-09,パシフィコ横浜(バイブリッド),2022.6.
  24. 金丸 竜也,荒金 大清,齊藤 剛史.イベントベースカメラを用いた孤立単音読唇,第28回 画像センシングシンポジウム(SSII2022),IS1-08,パシフィコ横浜(ハイブリッド),2022.6.
  25. 荒金 大清,齊藤 剛史.単語読唇に有効な深層学習モデルの検討,電子情報通信学会 パターン認識とメディア理解研究会,PRMU2022-4,pp.18-23,online,2022.5.

  26. 齊藤 剛史,立入 哉.日本語読話能力検査の実施報告,電子情報通信学会 福祉情報工学研究会,pp.13-17,online,2021.12.
  27. 金丸 竜也,齊藤 剛史.イベントベースカメラからの顔特徴点検出法の検討.ビジョン技術の実利用ワークショップ(ViEW2021),IS3-07,pp.299-303,online,2021.12.
  28. 荒金 大清,齊藤 剛史.Temporal Convolutional Networkを用いた単語読唇.第11回バイオメトリクスと認識・認証シンポジウム(SBRA2021),A3-2,pp.29-33,online,2021.11.
  29. 中村 京太,酒井 拓磨,安部 猛,齊藤 剛史,冬野 美晴,Frank Coffey,Andrew MacKenzie,土屋 慶子,種市 瑛.日英救急医療チーム・インタラクションでの共同行為はいかに可能か - 視線解析メガネを用いたチーム・ リーダーの依頼行為パターン分析.第16回 医療の質・安全学会 学術集会,オンライン,2021.11.
  30. 白井 誠,田川 元気,伊藤 和幸,坂本 一樹,齊藤 剛史.眼球運動を利用した眼鏡型スイッチの開発(第2報)~ ALS療養者を対象として ~ ,第9回日本難病医療ネットワーク学会学術集会,online,2021.11.
  31. 伊藤 和幸,坂本 一樹,齊藤 剛史,白井 誠,田川 元気.眼球運動を利用した眼鏡型スイッチの開発(第1報)~ ALS療養者を対象として ~,第9回日本難病医療ネットワーク学会学術集会,online,2021.11.
  32. 坂本 一樹,齊藤 剛史,伊藤 和幸.瞳孔中心検出に基づく眼球運動を利用したALS患者用の眼鏡型スイッチの開発,電子情報通信学会 福祉情報工学研究会,pp.18-23,online,2021.10.
  33. 齊藤 剛史,立入 哉.読話能力テスト報告,第8回サイレント音声認識ワークショップ(SSRW2021),online,2021.10.
  34. 荒金 大清,齊藤 剛史.TCNを用いた単語読唇に関する研究,第8回サイレント音声認識ワークショップ(SSRW2021),online,2021.10.
  35. 児玉 道成,齊藤 剛史.生成モデルを用いた単語読唇に関する研究,第8回サイレント音声認識ワークショップ(SSRW2021),online,2021.10.
  36. 齊藤 剛史,小田 恭央,小口 純矢,金井 郁也,森勢 将雅.ITAコーパスマルチモーダルデータベース,第8回サイレント音声認識ワークショップ(SSRW2021),online,2021.10.
  37. 坂本 一樹,齊藤 剛史,伊藤 和幸,白井 誠,田川 元気.メガネ型カメラを利用した眼球運動による呼び出しシステム,第35回リハ工学カンファレンス,pp.150-151,online,2021.9.
  38. 小口 純矢,金井 郁也,小田 恭央,齊藤 剛史,森勢 将雅.ITAコーパス:パブリックドメインの音素バランス文からなる日本語テキストコーパスの構築と基礎評価,音学シンポジウム2021(第131回音楽情報科学研究会・第137回音声言語情報処理研究会共催研究会),online,2021.6.
    企業賞受賞(SLP研究会)
  39. 児玉 道成,齊藤 剛史.First Order Motion Modelを用いた特定話者認識問題タスクへの置き換えによる読唇手法の提案,第27回 画像センシングシンポジウム(SSII2021),IS2-26,online,2021.6.
  40. 白方 達也,齊藤 剛史.Transformerを用いた日本語文章読唇,第27回 画像センシングシンポジウム(SSII2021),IS2-25,online,2021.6.

  41. 中村 京太,酒井 拓磨,安部 猛,齊藤 剛史,土屋 慶子,種市 瑛.救急医療チーム・リーダーは診療中モニタをどのくらい注視しているのか: 視線解析メガネを用いたリーダーの視線と依頼発話の分析.第15回 医療の質・安全学会 学術集会,オンライン,2020.11.
  42. 白方 達也,齊藤 剛史.表情特徴を用いた読唇精度の向上,第7回サイレント音声認識ワークショップ(SSRW2020),online,2020.10.
  43. 中村 祐哉,齊藤 剛史,伊藤 和幸.3D-CNNを用いた口形認識,第7回サイレント音声認識ワークショップ(SSRW2020),online,2020.10.
    学生研究奨励賞受賞
  44. 中村 祐哉,齊藤 剛史,伊藤 和幸.3D-CNNを用いた神経難病患者の口形認識に関する研究,電子情報通信学会 福祉情報工学研究会, vol.120,no.198,pp.27-32,online,2020.10.
  45. 土屋 慶子,種市 瑛,中村 京太,酒井 拓磨,安部 猛,齊藤 剛史.依頼行為のための相互行為空間創出:救急医療シミュレーションでのチームリーダーの視線と立ち位置を含むマルチモーダル分析,第12回日本ヘルスコミュニケーション学会 学術集会,online,2020.9.
  46. 坂本 一樹,齊藤 剛史,伊藤 和幸.ウェアラブルカメラを用いた目の動きによる夜間呼び出しシステムの開発.第19回情報科学技術フォーラム(FIT2020),pp.337-340,online,2020.9.
    FIT奨励賞 受賞
  47. 白方 達也,齊藤 剛史.表情特徴を用いた読唇.第19回情報科学技術フォーラム(FIT2020),pp.139-142,online,2020.9.
  48. 土屋 慶子,種市 瑛,中村 京太,酒井 拓磨,安部 猛,齊藤 剛史.救急医療での非言語行為解析のためのチームリーダの視線分析,電子情報通信学会 言語理解とコミュニケーション研究会,vol.119,no.415,pp.33-36,成蹊大学(東京都武蔵野市),2020.2.
  49. 本多 幸希,塩田 宰,嶋田 和孝,齊藤 剛史.マルチモーダル情報を考慮した議論の取りまとめ役推定,電子情報通信学会 言語理解とコミュニケーション研究会,vol.119,no.415,pp.27-32,成蹊大学(東京都武蔵野市),2020.2.

  50. 酒井 拓磨,中村 京太,安部 猛,齊藤 剛史,竹内 一郎,土屋 慶子,種市 瑛.視線解析メガネを用いた救急医療インタラクション分析:チーム・リーダーの視線とコミュニケーション・チャネルの確立,第14回 医療の質・安全学会学術集会,2019.11.
  51. 冬野 美晴,山下 友子,齊藤 剛史,横森 大輔.英語プレゼンテーション動画視聴時の日本人英語学習者の注視点解析,日本教育メディア学会第26回年次大会,2019
  52. 中村 祐哉,齊藤 剛史,伊藤 和幸.神経難病患者の口形認識に関する研究,電子情報通信学会 音声研究会,福祉情報工学研究会,SP2019-33, WIT2019-32,pp.93-98.第一工業大学(鹿児島),2019.10.
  53. 土屋 慶子,種市 瑛,酒井 拓磨,中村 京太,安部 猛,齊藤 剛史.視線解析を用いた救急医療インタラクションのマルチモーダル分析:メンバーの促し行為とリーダーの指示行為,第11回日本ヘルスコミュニケーション学会 学術集会,2019
    優秀演題賞(ポスター発表)受賞
  54. 齊藤 剛史,白方 達也.LiP25w: スマートデバイスで単語読唇.フォーラム顔学2019,D-1,pp.430-435,北海道情報大学(北海道),2019.9.
  55. 齊藤 剛史,徳永 旭将.LSTMを用いた分類問題における判断根拠可視化の検討.第22回 画像の認識・理解シンポジウム(MIRU2019),PS1-17,グランキューブ大阪(大阪),2019.8.
  56. 清水 翔太,齊藤 剛史.CNNを用いた文章発話シーンに対する単音読唇.動的画像処理実利用化ワークショップ2019(DIA2019),OS5-2,pp.410-414,北九州国際会議場(福岡県北九州市),2019.3.
  57. ワラポン チンサティ,齊藤 剛史.CNN-Based Calibration-Free Gaze Estimation System for Inside-out Camera.動的画像処理実利用化ワークショップ2019(DIA2019),IS1-26,pp.167-172,北九州国際会議場(福岡県北九州市),2019.3.

  58. 齊藤 剛史,窪川 美智子.再帰型ニューラルネットワークを用いた動き特徴量による単語読唇システムの開発.ビジョン技術の実利用ワークショップ(ViEW2018),IS2-B8,pp.430-435,パシフィコ横浜アネックスホール(神奈川),2018.12.
  59. 齊藤 剛史,窪川 美智子,平井 美紗都,野山 和廉.読唇技術を用いた新規代用音声のための高齢発話障害者に対する実験報告,電子情報通信学会 音声研究会,福祉情報工学研究会,vol.118, no.270, SP2018-42, WIT2018-30,pp.51-55.九州工業大学(福岡),2018.10.
  60. 安河内 静,齊藤 剛史.決定木を用いた手話単語認識.第5回サイレント音声認識ワークショップ,11.p.6.東京理科大学 野田キャンパス(千葉県野田市).2018.9.
  61. 齊藤 剛史,窪川 美智子.SSSDを用いた深層学習による読唇実験報告.第5回サイレント音声認識ワークショップ,4.p.3.東京理科大学 野田キャンパス(千葉県野田市).2018.9.
  62. 齊藤 剛史.機械読唇チャレンジ概要.第5回サイレント音声認識ワークショップ,1.p.1.東京理科大学 野田キャンパス(千葉県野田市).2018.9.
  63. 土屋 慶子,種市 瑛,中村 京太,酒井 拓磨,安部 猛,齊藤 剛史.救急医療シミュレーションでのリーダーの依頼?為:受け手割当装置としてのポライトネスと視線配布.第10回 日本ヘルスコミュニケーション学会学術集会,O-21,p.53,九州大学病院キャンパス(福岡市),2018.9.
  64. 窪川 美智子,齊藤 剛史.SSSDを用いた深層学習による読唇精度に関する検討.第21回 画像の認識・理解シンポジウム(MIRU2018),PS2-53,札幌コンベンションセンター (札幌),2018.8.
  65. 齊藤 剛史,窪川 美智子.SSSD:スマートデバイスを用いた読唇技術向け日本語データベース.電子情報通信学会 パターン認識とメディア理解研究会,BioX2017-63,PRMU2017-199,pp.163-168,青山学院大学(東京),2018.3.
  66. ワラポン チンサティ,近藤 凪沙,齊藤剛史.Gaze-based Text Input System using Wearable Camera.動的画像処理実利用化ワークショップ2018(DIA2018),IS1-11,pp.100-104,中京大学名古屋キャンパス(愛知県名古屋市),2018.3.
  67. 小宮 凜子,齊藤 剛史,嶋田 和孝.視線情報を用いた対話シーンにおける注目度推定.火の国情報シンポジウム2018,A5-3,長崎大学(長崎県長崎市),2018.3.1-2.
  68. 山田 伊織,齊藤 剛史,吉岡 由宇.福祉施設の介護記録ログデータを用いた排泄予測.火の国情報シンポジウム2018,A5-1,長崎大学(長崎県長崎市),2018.3.1-2.

  69. 児玉 知也,齊藤 剛史.手話認識に有効な骨格情報の検討,電子情報通信学会 音声研究会,福祉情報工学研究会,vol.117,no.251,WIT2017-45,pp.83-87.九州工業大学(福岡),2017.10.
  70. 齊藤 剛史.[招待講演]サイレント音声認識の研究動向 ~ 読唇技術を中心として ~,電子情報通信学会 音声研究会,福祉情報工学研究会,vol.117,no.250,SP2017-48,WIT2017-44,pp.77-81.九州工業大学(福岡),2017.10.
  71. 窪川 美智子,齊藤 剛史.読唇技術における顔画像に対する輝度補正効果の検証.情報処理学会 コンピュータビジョンとイメージメディア研究会,vol.2017-CVIM-208,no.27,東京大学(東京),2017.9.
  72. 小宮 凜子,齊藤 剛史,嶋田 和孝.画像処理技術を用いた対話シーンにおける注目度推定.第16回情報科学技術フォーラム(FIT2017),J-007,pp.349-350,東京大学(東京),2017.9.
    FIT奨励賞 受賞
  73. 窪川 美智子,齊藤 剛史.顔画像に対するコントラスト変換を用いた読唇.第4回サイレント音声認識ワークショップ,4.p.2.岐阜大学 JR岐阜駅前サテライトキャンパス(岐阜県岐阜市).2017.9.
    学生奨励賞 受賞
  74. 児玉 知也,齊藤 剛史.再帰型ニューラルネットワークを用いたマルチモーダル手話認識.第20回 画像の認識・理解シンポジウム(MIRU2017),PS3-53,広島国際会議場(広島),2017.8.
  75. 李 丞修,齊藤剛史.Convolutional Neural Networkを用いた頭部姿勢分類.動的画像処理実利用化ワークショップ2017(DIA2017),IS2-3,pp.235-239,くにびきメッセ(島根県松江市),2017.3.
  76. 小宮 凜子,ワラポン チンサティ,齊藤剛史,冬野美晴.スピーチ指導のための映像情報を用いた話者の顔解析.動的画像処理実利用化ワークショップ2017(DIA2017),OS3-4,pp.195-200,くにびきメッセ(島根県松江市),2017.3.
  77. 宮園 翼,齊藤 剛史.CNNを用いた特徴点付画像による魚種識別.火の国情報シンポジウム2017,A3-4,鹿児島大学(鹿児島県鹿児島市),2017.3.1-2.
  78. 近藤 凪沙,Warapon Chinsatit,齊藤 剛史.CNNを用いた目画像からの瞳孔検出に関する研究.火の国情報シンポジウム2017,A3-2,鹿児島大学(鹿児島県鹿児島市),2017.3.1-2.

  79. 窪川 美智子,齊藤 剛史.読唇向け公開データベースの紹介.第6回バイオメトリクスと認識・認証シンポジウム(SBRA2016),S2-20,pp.48-49,芝浦工業大学(東京都江東区),2016.11.16-17.
  80. 齊藤 剛史.フレーム連結画像を用いたCNNによる読唇.第6回バイオメトリクスと認識・認証シンポジウム(SBRA2016),S2-13,pp.35-36,芝浦工業大学(東京都江東区),2016.11.16-17.
  81. 橋村 佳祐,齊藤 剛史.距離画像のフレーム連結画像を用いたConvolutional Neural Networkによる手話単語認識.電子情報通信学会 福祉工学研究会,vol.116,no.248,WIT2016-36,pp.17-22,唐津ロイヤルホテル(佐賀県唐津市),2016.10.
  82. 齊藤 剛史.フレーム連結画像を用いたCNNによる読唇.第3回サイレント音声認識ワークショップ,12.p.6.福岡朝日ビル(福岡県福岡市).2016.10.
  83. 橋村 佳祐,齊藤 剛史.距離画像のフレーム連結画像を用いたCNNによる手話単語認識.第3回サイレント音声認識ワークショップ,11.p.5.福岡朝日ビル(福岡県福岡市).2016.10.
  84. 窪川 美智子,齊藤 剛史.口形パターンと母音並び語を利用した日本語テキスト入力システム.平成28年度電気・情報関係学会九州支部連合大会 (第69回連合大会),11-2P-06,p.437,2016.9.
  85. 近藤 凪沙,Warapon Chinsatit,齊藤 剛史.ウェアラブルカメラを用いた視線入力システムの有効性の検討.平成28年度電気・情報関係学会九州支部連合大会 (第69回連合大会),11-2P-05,p.436,2016.9.
  86. 小宮 凜子,Warapon Chinsatit,齊藤 剛史.アイコンタクト解析のためのCNNを用いた目検出.平成28年度電気・情報関係学会九州支部連合大会 (第69回連合大会),08-2P-08,p.419,2016.9.
  87. Warapon Chinsatit, Takeshi Saitoh.Pupil Center Estimation by using Deep Convolutional Neural Network.第19回 画像の認識・理解シンポジウム(MIRU2016),PS1-50, アクトシティ浜松(浜松),2016.8.
  88. 齊藤 剛史,Ziheng Zhou,Iryna Anina,Guoying Zhao,Matti Pietikainen.フレーム連結画像を用いたCNNによるシーン認識.第19回 画像の認識・理解シンポジウム(MIRU2016),PS1-27, アクトシティ浜松(浜松),2016.8.
  89. 小宮 凜子,齊藤 剛史,冬野 美晴,山下 友子,中島 祥好.スピーチ指導のための顔特徴点を用いた話者頭部の動き解析.電子情報通信学会総合大会,D-15-32,p.211,九州大学(福岡),2016.3.
  90. Chinsatit Warapon, Takeshi Saitoh.Eye Detection by using Gradient Value for Performance Improvement of Wearable Gaze Estimation System.電子情報通信学会 パターン認識とメディア理解研究会,vol.115,no.456,PRMU2015-163,CNR2015-64,pp.149-154,九州工業大学(福岡),2016.2.
  91. 祐宗 高徳,渋谷 昌尚,川田 健司,齊藤 剛史.手話シーン観察時の注視情報分析.電子情報通信学会 パターン認識とメディア理解研究会,vol.115,no.456,PRMU2015-158,CNR2015-59,pp.129-130,九州工業大学(福岡),2016.2.
  92. 原 賢太,齊藤 剛史.Constrained Local Modelを用いた顔特徴点検出に関する検討.電子情報通信学会 パターン認識とメディア理解研究会,vol.115,no.456,PRMU2015-154,CNR2015-55,pp.121-122,九州工業大学(福岡),2016.2.
  93. 脇坂 健太郎,齊藤 剛史.Convolutional Neural Networkを用いた魚画像認識.電子情報通信学会 パターン認識とメディア理解研究会,vol.115,no.456,PRMU2015-132,CNR2015-33,pp.1-5,九州工業大学(福岡),2016.2.

  94. 渋谷 昌尚,川田 健司,齊藤 剛史.注視点推定技術を利用した文字入力システムの開発.計測自動制御学会第34回九州支部学術講演会,204B3,pp.179-182.福岡工業大学(福岡).2015.11.
  95. 飯沼 眞紀,齊藤 剛史.母音口形を利用したテキスト入力システム.第2回サイレント音声認識ワークショップ,4.p.2.神戸大学(兵庫県神戸市).2015.10.
  96. 小宮 凜子,齊藤 剛史.読唇で利用可能な公開データベースの紹介.第2回サイレント音声認識ワークショップ,1.p.1.神戸大学(兵庫県神戸市).2015.10.
  97. 橋村 佳祐,齊藤 剛史.Light-HMMを用いた手話認識.平成27年度電気・情報関係学会九州支部連合大会 (第68回連合大会),11-2P-06,p.511,2015.9.
  98. 宮園 翼,齊藤 剛史.魚の画像認識に関する研究.平成27年度電気・情報関係学会九州支部連合大会 (第68回連合大会),11-2A-04,p.352,2015.9.
  99. 原 賢太,齊藤 剛史.Constrained Local Modelを用いた特徴点検出.平成27年度電気・情報関係学会九州支部連合大会 (第68回連合大会),11-2A-03,p.351,2015.9.
  100. 川田 健司,齊藤 剛史.Inside-Out カメラを用いた単眼による注視点推定手法の性能評価.第14回情報科学技術フォーラム(FIT2015),I-040,pp.301-302,愛媛大学(愛媛),2015.9.
  101. 原 賢太,岩崎 将也,齊藤 剛史,Ziheng Zhou,Iryna Anina,Guoying Zhao,Matti Pietikainen.多視点Audio-VisualデータベースOuluVS2.第18回 画像の認識・理解シンポジウム(MIRU2015),SS4-46, ホテル阪急エキスポパーク(大阪),2015.7.
  102. 小野 恭裕,本田 透,齊藤 剛史.眼鏡型カメラを用いたコミュニケーション支援機器の重度頭部・脊髄外傷患者への応用.第35回日本リハビリテーション医学会 中国・四国地方会,高知大学(高知),2015.6.
  103. 飯沼 眞紀,齊藤 剛史.口形パターンと母音並び語を利用したテキスト入力システム.電子情報通信学会 パターン認識とメディア理解研究会,vol.114,no.408,PRMU2015-55,SP2015-24,WIT2015-24,pp.143-148,新潟大学(新潟),2015.6.
  104. 西野 博貴,齊藤 剛史.特徴点ベースによるモデルフリーの物体動線検出.電子情報通信学会 パターン認識とメディア理解研究会,vol.114,no.408,PRMU2015-55,SP2015-24,WIT2015-24,pp.137-142,新潟大学(新潟),2015.6.
  105. 柴田 利樹,齊藤 剛史.魚画像認識に有効な特徴量の検討.情報処理学会 コンピュータビジョンとイメージメディア研究会,vol.2015-CVIM-197,no.26,日本科学未来館(東京),2015.5.
  106. 柴田 利樹,川口 莉奈,齊藤 剛史.画像処理技術を用いた魚種検索システムの開発.動的画像処理実利用化ワークショップ2015(DIA2015),IS1-B4,広島工業大学(広島),2015.3.
  107. 小山 智己,齊藤 剛史.Kinectを用いた手話単語認識に有効な特徴量の検討.電子情報通信学会 MEとバイオサイバネティックス研究会,vol.114,no.408,MBE2014-115,pp.117-120,熊本大学(熊本),2015.1.

  108. 柴田 利樹,齊藤 剛史.画像処理技術を用いた魚種識別に有効な特徴量の検討.計測自動制御学会第33回九州支部学術講演会,203A1,pp.157-160.九州工業大学(福岡).2014.12.
  109. 白石 淳,齊藤 剛史.オプティカルフローを用いた読唇に有効な注目領域の検討.計測自動制御学会第33回九州支部学術講演会,203A2,pp.161-164.九州工業大学(福岡).2014.12.
  110. 白石 淳,齊藤 剛史.オプティカルフローを用いた読唇に関する研究.平成26年度電気・情報関係学会九州支部連合大会,10-2A-04.p.375.鹿児島大学(鹿児島).2014.9.
  111. 川田 健司,齊藤 剛史.グラス型Inside-Out カメラを用いた注視点推定.平成26年度電気・情報関係学会九州支部連合大会,06-2A-12.p.333.鹿児島大学(鹿児島).2014.9.
    平成26年度連合大会講演奨励賞 受賞
  112. 白石 淳,齊藤 剛史.オプティカルフローを用いた読唇に関する研究.第1回サイレント音声認識ワークショップ,1.p.1.九州工業大学(福岡).2014.8.
  113. 齊藤 剛史,白石 淳.マルチストリーム読唇.第17回 画像の認識・理解シンポジウム(MIRU2014),SS2-54,岡山コンベンションセンター(岡山),2014.7.
  114. 齊藤 剛史,岩田 聡大,脇坂 健太郎.お木楽サーチ:葉画像を用いた樹木検索システム.動的画像処理実利用化ワークショップ2014(DIA2014),IS2-3,pp.71-74,熊本大学(熊本),2014.3.
  115. 齊藤 剛史.画像処理による割り箸原形の外観検査システムの開発.情報処理学会 コンピュータビジョンとイメージメディア研究会,vol.2014-CVIM-191,no.15,東京大学(東京),2014.3.
  116. 齊藤 剛史,岩田 聡大.画像処理技術を用いた樹木同定に関する研究.情報処理学会 コンピュータビジョンとイメージメディア研究会,vol.2014-CVIM-191,no.14,東京大学(東京),2014.3.
  117. 井上 快,小山 智己,齊藤 剛史.距離画像を用いた単一指文字認識.電子情報通信学会 パターン認識・メディア理解研究会,vol.113,no.431,PRMU2013-167,CNR2013-75,pp.195-199,福岡大学(福岡),2014.2.
  118. 岩上 純生,齊藤 剛史.指先キャリブレーションを利用した注視点推定.電子情報通信学会 パターン認識・メディア理解研究会,vol.113,no.431,PRMU2013-166,CNR2013-74,pp.189-194,福岡大学(福岡),2014.2.

  119. 白石 淳,齊藤 剛史.高速度カメラを用いた初口形認識.計測自動制御学会第32回九州支部学術講演会,203A1,pp.189-192,2013.11.
  120. 小山 智己,齊藤 剛史,酒向 慎司,北村 正.Kinectを用いた手話認識.計測自動制御学会第32回九州支部学術講演会,103A5,pp.159-162,2013.11.
  121. 西野 博貴,齊藤 剛史.講義映像における移動人物の自動検出.平成25年度電気関係学会九州支部連合大会(第66回連合大会),02-2A-13,p.323,2013.9.
  122. 岩上 純生,齊藤 剛史.First Person VisionのためのInside-Outカメラにおける注視点推定.平成25年度電気関係学会九州支部連合大会(第66回連合大会),02-2A-12,p.322,2013.9.
  123. 齊藤 剛史.樹皮画像による樹木同定の検討.平成25年度電気関係学会九州支部連合大会(第66回連合大会),02-2A-11,p.321,2013.9.
  124. 西野 博貴,齊藤 剛史.講義映像における移動物体動線の自動検出.第12回情報科学技術フォーラム(FIT2013),H-052,pp.207-208,鳥取大学(鳥取),2013.9.
  125. 岩田 聡大,齊藤 剛史.葉の表裏を利用した樹木の画像認識.第12回情報科学技術フォーラム(FIT2013),H-031,pp.161-162,鳥取大学(鳥取),2013.9.
  126. 齊藤 剛史,岩田 聡大,柴田 利樹,脇坂 健太郎.葉画像を用いた樹木検索システム.第16回 画像の認識・理解シンポジウム(MIRU2013),SS6-16,国立情報学研究所(東京),2013.8.
  127. 西野 博貴,齊藤 剛史.講義映像における移動物体の自動検出.電子情報通信学会 教育工学研究会,vol.113,no.166,ET2013-27,pp.47-52,熊本大学(熊本),2013.7.
  128. 井上 快,齊藤 剛史.Kinectを利用した指文字認識に関する検討.電子情報通信学会 MEとバイオサイバネティックス研究会,vol.112,no.417,MBE2012-81,pp.45-50,九州工業大学(福岡),2013.1.

  129. Trung Hieu Bui, Eitaku Nobuyama and Takeshi Saitoh.Road Boundaries Extraction for General Road Images using Texture Orientation and Color Information.第31回計測自動制御学会九州支部学術講演会,103A6, pp.175-178,2012.12.
  130. 齊藤 剛史.高速度カメラを用いた音認識.フォーラム顔学2012,O2-4,p.109,2012.10.
  131. 岩田 聡大,齊藤 剛史.形状と色情報に基づく葉の画像認識.平成24年度電気関係学会九州支部連合大会(第65回連合大会),09-2P-18,p.604,2012.9.
    平成24年度連合大会講演奨励賞 受賞
  132. 岩田 聡大,齊藤 剛史.葉画像を用いた樹木の認識.電子情報通信学会 画像工学研究会,vol.112,no.189,LOIS2012-28,IE2012-60,EMM2012-51,pp.93-98,山口大学(山口),2012.8.
  133. 井上 快,齊藤 剛史.距離画像を用いたリアルタイム指文字認識.電子情報通信学会 画像工学研究会,vol.112,no.189,LOIS2012-27,IE2012-59,EMM2012-50,pp.87-92,山口大学(山口),2012.8.
  134. 岩上 純生,齊藤 剛史.SSRフィルタを用いた目検出及び瞬き検出.電子情報通信学会 画像工学研究会,vol.112,no.189,LOIS2012-26,IE2012-58,EMM2012-49,pp.81-85,山口大学(山口),2012.8.
  135. 齊藤 剛史,韓 リャン. 読唇に有効な顔モデルの確立 .第15回 画像の認識・理解シンポジウム(MIRU2012),IS3-24,福岡国際会議場(福岡),2012.8.

  136. 齊藤 剛史,韓 リャン.読唇に有効な顔モデルの検討.電子情報通信学会 パターン認識・メディア理解研究会,vol.111,no.499,PRMU2011-275,HIP2011-103,pp.217-222,神戸大学(兵庫),2012.3.
  137. 堰口 文貴,齊藤 剛史,吉留 健.ニュース映像における基本口形の認識.第20回計測自動制御学会中国支部学術講演会,421,pp.194-195,岡山大学(岡山),2011.11.
  138. 内田 克彦,齊藤 剛史,吉留 健.文章発話シーンにおける単語スポッティング認識.第20回計測自動制御学会中国支部学術講演会,420,pp.192-193,岡山大学(岡山),2011.11.
  139. 前田 祐作,吉田 浩治,尾崎 知幸,齊藤 剛史,吉留 健.レーザレンジファインダを用いた屋内追従帰還型移動ロボットの開発.第20回計測自動制御学会中国支部学術講演会,319,pp.146-147,岡山大学(岡山),2011.11.
  140. 吉田 浩治,前田 祐作,尾崎 知幸,齊藤 剛史,吉留 健.レーザレンジファインダを用いた SLAM による音声操作型電動車いすの走行補助.第20回計測自動制御学会中国支部学術講演会,307,pp.122-123,岡山大学(岡山),2011.11.
  141. 本田 透,齊藤 剛史.デジタル画像処理による読唇技術を用いた音声コミュニケーション支援システム.第48回日本リハビリテーション医学会学術集会,1-6-19,p.558,幕張メッセ(千葉),2011.11.
  142. 齊藤 剛史.リアルタイム読唇システム.平成23年度電気関係学会九州支部連合大会(第64回連合大会),08-2P-01,p.558,2011.9.
  143. 韓 リャン,齊藤 剛史.Active Appearance Modelにおける読唇に有効な顔モデルの検討.平成23年度電気関係学会九州支部連合大会(第64回連合大会),08-2P-07,p.564,2011.9.
  144. 齊藤 剛史.発話障害者のための読唇技術を利用したコミュニケーション支援システム.ヒューマンインタフェースシンポジウム2011,1421L,pp.323-328,2011.9.
  145. 齊藤 剛史.読唇のための線形回帰による視点変換.第14回 画像の認識・理解シンポジウム(MIRU2011),IS2-36,pp.747-752,2011.7.
  146. 吉田 浩治,齊藤 剛史,小西 亮介.レーザレンジファインダを用いたSLAMによる電動車いすの走行制御.電子情報通信学会 福祉情報工学研究会,WIT2010-64,pp.43-47,立命館大学(滋賀),2011.1.

  147. 齊藤 剛史,福井 幸美.割り箸原形の外観検査システムの開発.ビジョン技術の実利用ワークショップ(ViEW2010),I-37,pp.296-302,パシフィコ横浜アネックスホール(神奈川),2010.12.
  148. 齊藤 剛史,山下 晃平,小西 亮介.口形認識に有効な視点の検討.第15回パターン計測シンポジウム(第83回パターン計測部会研究会),pp.43-48,デュープレックスセミナーホテル(茨木),2010.12.
  149. 松下 幸司,吉田 浩治,前田 祐作,齊藤 剛史,尾崎 知幸,小西 亮介.音声操作型電動車いすのエレベータ乗降に関する研究.第19回計測自動制御学会中国支部学術講演会,309,pp.114-115,島根大学(島根),2010.11.
  150. 米虫 大輝,齊藤 剛史,丸山 康平,尾崎 知幸,小西 亮介,李 仕剛.魚眼カメラを用いた追従帰還型移動ロボットの開発.第19回計測自動制御学会中国支部学術講演会,310,pp.116-117,島根大学(島根),2010.11.
  151. 前田 祐作,吉田 浩治,松下 幸司,齊藤 剛史,尾崎 知幸,小西 亮介.レーザレンジファインダを用いた追従帰還型移動ロボットの開発.第19回計測自動制御学会中国支部学術講演会,312,pp.120-121,島根大学(島根),2010.11.
  152. 吉田 浩治,松下 幸司,前田 祐作,齊藤 剛史,尾崎 知幸,小西 亮介.レーザレンジファインダを用いたSLAM による車いすの壁沿い走行.第19回計測自動制御学会中国支部学術講演会,313,pp.122-123,島根大学(島根),2010.11.
  153. 堰口 文貴,齊藤 剛史,小西 亮介.ニュース映像における基本口形の認識.第19回計測自動制御学会中国支部学術講演会,504,pp.184-185,島根大学(島根),2010.11.
  154. 丸山 康平,齊藤 剛史,小西 亮介.ランダムサンプリングと2種類のトラッカによるMean Shift追跡.電気・情報関連学会中国支部第61回連合大会,23-18,pp.56-57,岡山県立大学(岡山),2010.10.
  155. 山下 晃平,齊藤 剛史,小西 亮介.多視点カメラによる発話シーンを用いた口形認識に有効な視点の検討.電気・情報関連学会中国支部第61回連合大会,22-7,pp.24-25,岡山県立大学(岡山),2010.10.
  156. 内田 克彦,齊藤 剛史,小西 亮介.文章発話シーンからの単語スポッティング認識.電気・情報関連学会中国支部第61回連合大会,22-8,pp.26-27,岡山県立大学(岡山),2010.10.
  157. 齊藤 剛史,内田 克彦,小西 亮介.連続DPマッチングを用いた発話シーンからの単語スポッティング認識.電子情報通信学会 パターン認識・メディア理解研究会,vol.110,no.219,PRMU2010-98,pp.53-58,幕張メッセ(千葉),2010.10.
  158. 齊藤 剛史,内田 克彦,小西 亮介.発話シーンからのワードスポッティング読唇.平成22年度電気関係学会九州支部連合大会(第63回連合大会),09-2P-11,pp.622-623,2010.9.
  159. 齊藤 剛史,小西 亮介.フレームレート変化による単語読唇の影響に関する考察.第13回 画像の認識・理解シンポジウム(MIRU2010),IS1-53,pp.400-407,釧路市観光国際交流センター(北海道),2010.7.
  160. 丸山 康平,齊藤 剛史,小西 亮介.形状と背景変化に頑健なMean Shift追跡.第13回 画像の認識・理解シンポジウム(MIRU2010),OS13-2,pp.1539-1546,釧路市観光国際交流センター(北海道),2010.7.
↑ Top


❖ 解説記事

  1. 齊藤 剛史.顔画像処理を用いた音声を利用しない音声認識技術(読唇技術)の改善,ケミカルエンジニヤリング,Vol.65,No.8,(2020年)
  2. 齊藤 剛史.人の顔をセンシングして,人のコミュニケーションを支援する画像処理技術,非破壊検査,Vol.67,No.7,pp.310-316,(2018年)
  3. Takeshi Saitoh.Lip-reading technology, Impact, pp.47-49, (2018年)
  4. 齊藤 剛史.サイレント音声認識,日本知能情報ファジィ学会,知能と情報,Vol.30,No.2,p.110,(2018年)
  5. 齊藤 剛史.Kinectを用いた手話認識,設計工学,日本設計工学会誌,Vol.51,No.11,pp.760-764,(2016.11).
  6. 齊藤 剛史.画像処理による割り箸原形の外観検査システムの開発,日刊工業出版,画像ラボ,pp.1-7,(2014.5).
  7. 齊藤 剛史.書評 はじめてのパターン認識,計測と制御,計測自動制御学会,第52巻7号,p.658,(2013.7).
  8. 齊藤 剛史.「回路シミュレータQucsによる電子回路入門」(導入編),月刊I/O,工学社,第38巻6号,pp.60-61,(2013.6).
  9. 齊藤 剛史.読唇技術の現状と展望,電波技術協会,電波技術協会報FORN,No.292,pp.32-35,(2013.5).
    電波技術協会報のページ [+]
↑ Top