Description
ザッピングセミナーとは?
本セミナーは、2011—2012年度、2014年度に有志によって開催されていた「ザッピングセミナー」の流れを汲んで、研究者の横の繋がりを広げること(平たく言うと異文化交流)を目的として立ち上げた企画です。以下にオリジナルの「ザッピングセミナー」の趣旨を掲載します:
このセミナーは、研究者同士の分野を超えた交流を目的としたものであり、 その名の通り、専門外の内容を、気軽に聞くことができるような形式を想定しております。お時間と野次馬根性のある方はお気軽にご参加ください。
- 普段接点がないが、一度話を聞いてみたい人がいる
- 現在勉強している内容を、自分の中での確認も兼ねて話してみたい
このようなご希望のある方はオーガナイザーまでご連絡ください。 セミナーの目的に鑑み、他薦は特に歓迎いたします。
発表者の方へのお願い
事前にタイトルとアブストラクト(和文の場合 200 文字程度)の 提出をお願いしています。 講演にあたってはセミナーの趣旨に鑑み、 できるだけ入門的で予備知識を必要とせず、 気楽に聞くことができるものを目指して頂けると助かります。
プログラム
注:講演順序が変更になりました(3/10 13:00)
15:00-16:00
鈴木雄太(総合研究大学院大学)
タイトル:無機結晶構造を取り扱う深層学習技術とその応用
アブストラクト: 金属や半導体を代表例として、無機材料の性質の多くは、その結晶構造、すなわち原子の並び方によって支配される。よって材料研究に情報処理技術を応用する分野であるMaterials Informatics(MI)において、結晶構造データの取り扱いは重要な技術要素である。しかし、結晶構造を構成する原子の個数が不定であることや、結晶構造の特徴である空間的対称性の取り扱いの難しさにより、MIにおける結晶構造データの活用は限定的となっていた。近年、結晶構造をグラフとして表現しグラフニューラルネットワークを適用する深層学習アプローチを突破口として、結晶構造を対象としたMIの研究が大きく発展しつつある。そこで本講演では、結晶構造を取り扱う深層学習技術に関する最近の研究動向および、講演者の最近の研究について紹介する。
16:20-17:20
幡谷龍一郎(東京大学)
タイトル:ベイズモデル選択による弱教師あり深層学習アルゴリズムのハイパーパラメータ最適化
アブストラクト: 深層学習では評価データ上の指標を用いてハイパーパラメータの調整を行うことが一般的である。 他方、半教師あり学習をはじめとする弱教師あり学習は、設定上評価データの取得が困難であり、現実的にはハイパーパラメータ最適化が困難であった。このような課題に対し、本発表ではベイズモデル選択(周辺尤度最大化)に基づいた、学習データのみを用いるハイパーパラメータ最適化を提案する。パラメータ数の多いニューラルネットワークに対しても効率的な周辺尤度の推定方法を導入し、半教師あり学習や転移学習などの深層弱教師ありアルゴリズムにおいて性能向上を確認した。
17:40-18:10
松井孝太(名古屋大学)
タイトル:推薦システムの統計的学習理論について勉強したところまで話す(論文紹介)
アブストラクト: 協調フィルタリングは嗜好の類似した他のユーザーの情報から対象のユーザーに対する推薦を行うユーザーベースな推薦システムの方法の一つです。これは各アイテムに対するユーザーのレーティング行列を、観測された要素のみから低ランクな行列で近似する学習問題として定式化されます。この方法の汎化性能は、未観測部分も含めた行列全体の近似誤差(期待リスク)と観測部分のみから計算される近似誤差(経験リスク)の差分(汎化ギャップ)によって評価することができます。 最近、共同研究の一環で協調フィルタリングの汎化ギャップ解析について勉強しているので、整理も兼ねていくつかの論文の結果(汎化ギャップバウンド)について証明も含めてご紹介します。
Media View all Media
If you add event media, up to 3 items will be shown here.