[go: up one dir, main page]

Tohoku NLP Group

Explore Human & Machine Thinking

Notifications【お知らせ】

2026 Feb.20

32nd Annual Meeting of the Language Processing Society of Japan / 言語処理学会第32回年次大会 (NLP2026)

Members of the lab will give the following 65 presentations at the 32nd Annual Meeting of the Language Processing Society of Japan (NLP2026) held in Utsunomiya from March 9 to 13.

2026年3月9日から13日にかけて宇都宮(栃木)で行われる言語処理学会第32回年次大会(NLP2026)において、Tohoku NLP メンバーが携わる下記65件の発表が行われます。

3/10(火)

B1:NLPモデルの評価・安全性・信頼性   3/10 (火) 9:30-11:00 B会場

  • B1-2 LLM の知能は人間と同様の構造を持つか?:人間の知能理論を用いた評価スコアの統計分析
    ○Namgi Han, 九門 涼真 (東大/理研), 谷中 瞳 (東大/理研/東北大)
  • B1-8 不可視文字を用いた敵対的攻撃の最適化
    ○川勝 祐貴 (東北大), 坂口 慶祐 (東北大/理研), 磯沼 大 (東北大/理研/NII)

C1:テキスト生成 / 音声言語処理   3/10 (火) 9:30-11:00 C会場

  • C1-7 日本語方言の音声認識における学習データの規模と特性
    ○松﨑 孝介 (東北大), 谷口 雅弥 (理研/東北大), 坂口 慶祐 (東北大/理研)

Q1:語彙資源・辞書 / 言語資源・アノテーションと評価   3/10 (火) 9:30-11:00 Q会場

  • Q1-5 SoftMatcha 2: 1兆語規模コーパスの超高速かつ柔らかい検索
    ○米田 優峻 (東大/NII), 鴨田 豪 (総研大/国語研), 松下 祐介 (京大), 末永 幸平 (NII/京大), 秋葉 拓哉 (Sakana AI/東北大), 和賀 正樹 (NII/京大), 横井 祥 (国語研/東北大/理研)

TS2:テーマセッション2:せめぎ合う計算言語学——LLM時代に揺れ動く言語観の中で——(総合討論)   3/10 (火) 11:15-11:40 A会場

  • TS2-7 CCGに基づく言語的計算効果の評価遅延
    ○松岡 大樹 (東大/理研), 谷中 瞳 (東大/理研/東北大)

B2:NLPモデルの評価・安全性・信頼性   3/10 (火) 11:15-12:45 B会場

  • B2-16 排他的逆学習
    ○佐々木 睦史 (東北大/NII), 中山 功太 (NII), 宮尾 祐介, 大関 洋平 (東大/NII), 磯沼 大 (NII/東北大/東大)
  • B2-21 複数参照ベース評価における参照集合の評価に向けて
    ○渡辺 楓大 (科学大), 佐藤 魁 (東北大), 赤間 怜奈 (東北大/国語研/理研), 吉野 幸一郎 (科学大/理研)

C2:マルチモーダル / 音声言語処理   3/10 (火) 11:15-12:45 C会場

  • C2-1 長尺動画生成タスクにおけるメタ評価ベンチマーク
    ○松田 陵佑 (東北大), 工藤 慧音 (東北大/理研), 吉田 遥音 (東北大), 清水 伸幸 (LY Corporation), 鈴木 潤 (東北大/理研/NII)
  • C2-17 Wav2Karaoke: A Pipeline to Align Notes and Lyrics from a Song
    ○◊Hong Hai Ngo, Yunmeng Li (東北大), Steven Coyne (東北大/理研), Kamila Szelag-Levine (東北大), 坂口 慶祐 (東北大/理研)
  • C2-20 音声・テキストペアが存在しない状況におけるTTS および STT による合成データ混合を用いた ASR 学習
    ○野田 陽, 酒井 眞, 杉野 かおり, 田森 秀明 (朝日新聞社), 岡崎 直観 (科学大), 乾 健太郎 (MBZUAI/東北大/理研)
  • C2-21 JCuisines: 日本の地域文化の理解にむけた郷土料理視覚言語ベンチマーク
    ○猪股 和樹, 吉田 遥音, 塩野 大輝 (東北大), 赤間 怜奈 (東北大/国語研/理研), 坂口 慶祐 (東北大/理研)
  • C2-22 MOMIJI: 日本語大規模インターリーブ視覚言語データセット
    ○塩野 大輝 (Turing/東北大), 横井 慎吾, 犬塚 眞太郎, 髙橋 翼 (Turing), 鈴木 潤 (東北大/理研/NII), 山口 祐 (Turing)

B3:NLPモデルの評価・安全性・信頼性 / NLPモデルの解釈可能性・分析   3/10 (火) 15:10-16:40 B会場

  • B3-6 hallucination可視化における主観的評価と情報取得の正確性のギャップ
    ○亀井 遼平, 坂田 将樹 (東北大), 邊土名 朝飛, 栗原 健太郎 (サイバーエージェント/AI Shift), 乾 健太郎 (MBZUAI/東北大/理研)
  • B3-9 日本語の倒置が大規模言語モデルの読解性能に与える影響
    ○津田 純花, 矢野 一樹 (東北大), 赤間 怜奈 (東北大/国語研/理研), 鈴木 潤 (東北大/理研/NII)

C3:マルチモーダル / テキスト生成   3/10 (火) 15:10-16:40 C会場

  • C3-12 画像生成学習が視覚理解能力へ与える影響の分析
    ○神林 励旺 (東北大), 稲葉 達郎 (MBZUAI), Benjamin Heinzerling (理研/東北大), 坂口 慶祐 (東北大/理研), 乾 健太郎 (MBZUAI/東北大/理研), 磯沼 大 (東北大/NII/理研)
  • C3-15 大規模視覚言語モデル内部におけるダイアグラムの表現形成過程
    ○吉田 遥音, 工藤 慧音, 青木 洋一 (東北大), 田中 涼太 (NTT), 斉藤 いつみ, 坂口 慶祐, 乾 健太郎 (東北大)
  • C3-17 視覚言語モデルにおける空間ダイクシス表現の運用能力の評価
    ○渡部 魁人 (東大), 山本 泰成, 土井 智暉 (東大/理研), 谷中 瞳 (東大/理研/東北大)

P3:評判・感情分析・スタイル分析 / 対話   3/10 (火) 15:10-16:40 P会場

  • P3-8 ユーザ発話を用いたシステム応答に対する不満検出
    ○齋藤 由佳, 沼屋 征海 (東北大), 赤間 怜奈 (東北大/国語研/理研), 鈴木 潤 (東北大/理研/NII)

B4:NLPモデルの評価・安全性・信頼性 / NLPモデルの解釈可能性・分析   3/10 (火) 16:55-18:25 B会場

  • B4-2 広告文生成における多様性と広告品質の関係
    ○青木 洋一 (東北大/理研), 村上 聡一朗, 本多 右京, 加藤 明彦 (サイバーエージェント)
  • B4-13 言語モデルにおける共参照解決を担う注意ヘッドの分析
    ○澤田 紘希, 佐々木 睦史 (東北大), 坂口 慶祐 (東北大/理研), Benjamin Heinzerling (理研/東北大)
  • B4-19 Understanding Fact Recall in Language Models: Why Two-Stage Training Encourages Memorization but Mixed Training Teaches Knowledge
    ○◊Zhang Ying (理研), Heinzerling Benjamin (理研/東北大), Li Dongyuan (東大), 乾 健太郎 (理研/MBZUAI)

P4:対話   3/10 (火) 16:55-18:25 P会場

  • P4-2 共感的振る舞いを備えた対話型アバターによる心理的安全性の創出:マルチモーダル同調と視覚的共有の効果
    ○曾根 周作 (一関高専/東北大), 鈴木 明宏 (一関高専), 徳吉 陽河 (コーチング心理学協会), 虫明 元 (東北大), 乾 健太郎 (MBZUAI/東北大/理研)

Q4:言語資源・アノテーションと評価   3/10 (火) 16:55-18:25 Q会場

  • Q4-12 YOMI-Bench:LLMの日本語読み理解に向けた評価用ベンチマーク
    ○三林 亮太 (神戸大), 高村 大也 (産総研), 谷中 瞳 (理研/東大/東北大)

3/11(水)

B5:NLPモデルの解釈可能性・分析   3/11 (水) 9:30-11:00 B会場

  • B5-6 言語モデルにおける共通統語メカニズムの分析
    ○九門 涼真 (東大/理研), 谷中 瞳 (東大/理研/東北大)
  • B5-9 言語ニューロン介入は非目標言語の出力を抑制できるか?
    ○謝 素春, 金 輝燦, 佐々木 翔大 (東北大), 山田 康輔 (サイバーエージェント), 鈴木 潤 (東北大/理研/NII)
  • B5-12 多段算術推論タスクにおける思考の連鎖の忠実性
    ○工藤 慧音, 青木 洋一 (東北大/理研), 栗林 樹生 (MBZUAI/東北大), 曾根 周作 (東北大), 谷口 雅弥 (理研/東北大), Ana Brassard (理研), 坂口 慶祐 (東北大/理研), 乾 健太郎 (MBZUAI/東北大/理研)
  • B5-13 大規模言語モデルの潜在言語は一貫しているべきか?
    ○尾崎 慎太郎 (NAIST/NII), 平岡 達也 (MBZUAI/NAIST), 大竹 啓永 (NAIST/NII), 大内 啓樹 (NAIST/理研), 磯沼 大 (NII/東北大/東大/理研), Benjamin Heinzerling (理研/東北大), 乾 健太郎 (MBZUAI/東北大/理研), 渡辺 太郎 (NAIST), 宮尾 祐介, 大関 洋平 (東大/NII), 高木 優 (名工大)
  • B5-14 言語モデルにおける既知性判断のメカニズム
    ○佐藤 魁 (東北大), 高橋 良允 (東北大/理研), Benjamin Heinzerling (理研/東北大), 井之上 直也 (JAIST/理研), 乾 健太郎 (MBZUAI/理研/東北大), 鈴木 潤 (東北大/理研/NII)

Q5:言語資源・アノテーションと評価   3/11 (水) 9:30-11:00 Q会場

  • Q5-7 家族日常対話における計画情報抽出
    ○沼屋 征海, 佐藤 魁, 吉田 倖, 亀井 遼平 (東北大), 所 年雄, 滑川 登, 濱口 泰時 (トランスコスモス), 上村 崇 (epiST), 乾 健太郎 (MBZUAI/東北大/理研), 坂口 慶祐 (東北大/理研)

B6:NLPモデルの解釈可能性・分析   3/11 (水) 11:15-12:45 B会場

  • B6-13 Attention SinkおよびMassive Activationの発生機序の分解
    ○木谷 頼斗, 大橋 諭貴, 佐藤 宏亮 (東北大), 鴨田 豪 (総研大/国語研), 高橋 良允 (東北大/理研), 山本 悠士 (総研大/国語研), 塩野 大輝 (東北大), 坂口 慶祐 (東北大/理研), 小林 悟郎 (東北大)
  • B6-14 LLM の多言語内部表現における意味空間と言語成分の構造
    ○山本 泰成, 九門 涼真 (東大/理研), Danushka Bollegala (UoL), 谷中 瞳 (東大/理研/東北大)
  • B6-15 注意機構における Attention Sink のバイアス項的解釈
    ○大橋 諭貴, 木谷 頼斗, 佐藤 宏亮 (東北大), 高橋 良允 (東北大/理研), 鴨田 豪, 山本 悠士 (総研大/国語研), 塩野 大輝 (東北大), 坂口 慶祐 (東北大/理研), 小林 悟郎 (東北大)
  • B6-16 言語モデルに線形に内在する階層的概念
    ○坂田 将樹 (東北大/理研), Benjamin Heinzerling (理研/東北大), 伊藤 拓海 (東北大/Langsmith), 横井 祥 (国語研/東北大/理研), 乾 健太郎 (MBZUAI/東北大/理研)
  • B6-18 タスク算術の誤差項とその解釈
    ○李 宰成 (東北大), 中石 海 (理研/国語研), 鈴木 潤 (東北大/理研/NII), 横井 祥 (国語研/東北大/理研)

C6:知識獲得・情報抽出 / 機械学習   3/11 (水) 11:15-12:45 C会場

  • C6-14 ニーズ知識グラフ構築による異業種アナロジーの探索
    ○朝倉 卓人 (ストックマーク/NII/東大/理研), 広田 航 (ストックマーク), 乾 健太郎 (MBZUAI/東北大/理研), Heinzerling Benjamin (理研/東北大), Dai Qin (東北大), 有馬 幸介 (ストックマーク)
  • C6-17 単体複体を用いた次単語予測分布の幾何的解釈
    ○石峯 拓海 (東大/国語研), 日野 英逸 (統数研), 横井 祥 (国語研/東北大/理研)
  • C6-22 なぜ平均プーリングはうまく動くのか?テキスト埋め込みの二次統計量の崩壊の定量化
    ○原 知正, 栗田 宙人 (東北大), 今泉 允聡 (東大/京大/理研), 乾 健太郎 (MBZUAI/東北大/理研), 横井 祥 (国語研/東北大/理研)

P6:実世界接地と言語処理 / 教育応用   3/11 (水) 11:15-12:45 P会場

  • P6-7 日本語学習者辞書語釈の自動生成
    ○井手 佑翼 (NAIST/理研), Adam Nohejl (理研/NAIST), Joshua Tanner (Resolve Research), 谷中 瞳 (東大/理研/東北大), Christopher Lindsay (Serpenti Sei), 渡辺 太郎 (NAIST)
  • P6-21 英語長文穴埋め問題のための問題カテゴリ推定と空欄箇所選定手法の改善
    ○板橋 康知, 松林 優一郎 (東北⼤/理研)

3/12(木)

B7:NLPモデルの解釈可能性・分析 / NLPのための効率的・低リソース手法   3/12 (木) 9:30-11:00 B会場

  • B7-1 人手評価データセットの統計的類似性と代替可能性
    ○沼屋 征海 (東北大), 赤間 怜奈 (東北大/国語研/理研), 守屋 彰二 (東北大), 佐藤 志貴 (東北大/サイバーエージェント), 鈴木 潤 (東北大/理研/NII)
  • B7-6 大規模言語モデルのニューロン分析による効率的な多言語拡張
    ○飯森 栄治 (東大/理研), 谷中 瞳 (東大/理研/東北大)

C7:知識獲得・情報抽出 / 機械学習 / LLM構築   3/12 (木) 9:30-11:00 C会場

  • C7-8 言語モデルにおける知識の連鎖的編集を促すメタ学習手法
    ○芝 太地 (東大/NII), 磯沼 大 (東北大/NII), 大関 洋平, 宮尾 祐介 (東大/NII)
  • C7-15 データマージ:平均化データを用いた学習効率化
    ○大竹 啓永 (NAIST/NII), 平岡 達也 (MBZUAI/NAIST), 宮尾 祐介, 大関 洋平 (東大/NII), 磯沼 大 (NII/東北大/理研)
  • C7-20 位置符号化の基底拡大戦略は外挿性能を制限する
    ○岡 佑依 (NTT/東北大), 斉藤 いつみ (東北大), 西田 京介 (NTT)
  • C7-24 品質と網羅性に基づくデータ選択による言語モデルの効率的学習
    ○Haocheng Zhu, 王 天奇 (東北大), 鈴木 潤 (東北大/理研/NII)

P7:質問応答 / 教育応用 / その他の応用   3/12 (木) 9:30-11:00 P会場

  • P7-11 LLM による教育的フィードバックの生成と評価
    ○古橋 萌々香 (東北大/NII), 中山 功太, 児玉 貴志 (NII), 菅原 朔 (NII/東大), 高見 享佑 (大教大)
  • P7-17 一対一英語個別指導における教師の戦略予測モデル構築
    ○Lee Pureumae, 三浦 直己, Coyne Steven, 松林 優一郎 (東北大/理研)
  • P7-22 反論生成におけるLLMの論理構造準拠の向上を目的とした段階的生成手法の提案
    ○天野 祥太朗 (大阪公立大), 尾崎 大晟 (大阪公立大/松尾研究所), 内藤 昭一 (リコー), 井之上 直也 (JAIST/理研), 山口 健史 (理研), 中川 智皓, 新谷 篤彦 (大阪公立大)

Q7:言語資源・アノテーションと評価 / 心理言語学・認知モデリング   3/12 (木) 9:30-11:00 Q会場

  • Q7-2J 日本語日常会話コーパスのUniversal Dependencies: UD_Japanese-CEJC
    ○大村 舞 (大阪樟蔭女子大), 若狭 絢 (東北大), 松田 寛 (Megagon Labs), 浅原 正幸 (国語研)
  • Q7-4 Mamba の “処理時間” はヒトの読み時間と符合する
    ○山本 悠士 (総研大/国語研), 磯野 真之介 (国語研), 河原 吉伸 (阪大/理研), 横井 祥 (国語研/東北大/理研)
  • Q7-10 合成データによる事前学習から見る言語と音楽の関係性
    ○稲葉 達郎 (MBZUAI), 乾 健太郎 (MBZUAI/理研/東北大), 栗林 樹生 (MBZUAI)

B8:NLPモデルの評価・安全性・信頼性   3/12 (木) 11:15-12:45 B会場

  • B8-2 とりたて助詞に関する推論データセットの拡張と大規模言語モデルの評価
    ○三上 燿輔 (東大/理研), 谷中 瞳 (東大/理研/東北大)
  • B8-3 TimeMachine-bench: LLMは「あの日」のコードを最新環境に適応できるか?
    ○藤井 諒 (東北大/フューチャー), 森下 睦 (フューチャー/東北大), 矢野 一樹 (東北大), 鈴木 潤 (東北大/理研/NII)

C8:LLM構築 / 機械翻訳   3/12 (木) 11:15-12:45 C会場

  • C8-3 単語単位のトークン分割を用いたLLMの性能調査
    ○清水 誉大, 王 天奇 (東北大), 鈴木 潤 (東北大/理研/NII)
  • C8-4 事前学習における学習率スケジューラが事後学習後の性能に与える影響
    ○矢野 一樹 (東北大), 清野 舜 (SB Intuitions), 小林 颯介, 高瀬 翔 (東北大), 鈴木 潤 (東北大/理研/NII)
  • C8-9 MoEアーキテクチャによる破滅的忘却の抑制効果の評価
    ○杉本 陽大, 李 宰成, 吉田 倖 (東北大), 鈴木 潤 (東北大/理研/NII)
  • C8-13 Transformer事前学習における最終層隠れ状態ジャンプの抑制
    ○柴田 圭悟, 矢野 一樹 (東北大), 高橋 良允 (東北大/理研), 李 宰成, 池田 航 (東北大), 鈴木 潤 (東北大/理研/NII)
  • C8-17 自己生成・自己選好データを活用した事後学習の効果検証
    ○吉田 希世, Haocheng Zhu, 王 天奇 (東北大), 鈴木 潤 (東北大/理研/NII)

P8:形態素・構文解析 / 意味論・意味解析 / 文脈解析   3/12 (木) 11:15-12:45 P会場

  • P8-17 LLMを活用した分節談話表示理論に基づく日本語談話構造解析
    ○富崎 智睦 (東大), 三上 燿輔 (東大/理研), 綿引 周 (東大), 谷中 瞳 (東大/理研/東北大)
  • P8-18 文章執筆支援のための項省略の可否判断予測モデル
    ○久保田 智天, 松林 優一郎 (東北大/理研), 乾 健太郎 (MBZUAI/東北大/理研)

B9:NLPモデルのための評価・安全性・信頼性 / NLPモデルの解釈可能性・分析 / NLPのための効率的・低リソース手法   3/12 (木) 14:15-15:45 B会場

  • B9-11 TopK Language Models
    ○高橋 良允 (東北大/理研), 稲葉 達郎 (MBZUAI), 乾 健太郎 (MBZUAI/東北大/理研), Benjamin Heinzerling (理研/東北大)
  • B9-16 Cell-Based Representation of Relational Binding in Language Models
    ○◊代 勤 (東北大), Benjamin Heinzerling (理研/東北大), 乾 健太郎 (MBZUAI/東北大/理研)
  • B9-19 WikiOriginQA: 知識の起源を組み込んだ文化的バイアス分析用QAデータセットの自動構築
    ○羽根田 賢和 (フューチャー/東北大), 岸波 洋介, 藤井 諒 (フューチャー), 坂口 慶祐 (東北大), 森下 睦 (フューチャー)

C9:機械翻訳   3/12 (木) 14:15-15:45 C会場

  • C9-5 固定区間チャンキングを用いた文書翻訳手法の提案と分析
    ○王 小天 (東大), 林 有源 (京大), 申 展 (東大), 谷中 瞳 (東大/理研/東北大)
  • C9-20 項の復元は必要か?日英機械翻訳における省略された項の扱いの分析
    ○野末 慎之介 (東北大), 松林 優一郎 (東北大/理研), 藤井 諒 (フューチャー/東北大), 岸波 洋介 (フューチャー), 森下 睦 (フューチャー/東北大), 坂口 慶祐 (東北大/理研)

News【ニュース】

2026 Feb.26
News Release

Acceptance to CVPR 2026 / CVPR 2026 採択

The following paper has been accepted to The IEEE/CVF Conference on Computer Vision and Pattern Recognition 2026.

CVPR 2026 に下記の論文が採択されました。

Main Conference

  • Ryosuke Matsuda, Keito Kudo, Haruto Yoshida, Nobuyuki Shimizu, Jun Suzuki.
    “SLVMEval: Synthetic Meta Evaluation Benchmark for Text-to-Long Video Generation”
  • Shojiro Yamabe, Futa Waseda, Daiki Shiono, Tsubasa Takahashi.
    “Text-Printed Image: Bridging the Image-Text Modality Gap for Text-centric Training of Large Vision-Language Models”

open
2026 Feb.09
News Release

Master thesis final defense / 修士論文本審査会が行われました

Master students Yasutomo Itabashi, Koichi Iwakawa, Haocheng Zhu, Yu Naito, Yuto Nakano, Shinnosuke Nozue, Tomomasa Hara, Kento Haneda, Kosuke Matsuzaki, Naoki Miura, Jaesung Lee, Haruto Yoshida and Ko Yoshida defended their Master theses (Sakaguchi-Inui Lab/Suzuki Lab: 25-min presentation + 15-min Q&A; Matsubayashi Lab: 15-min presentation + 15-minute Q&A). Great work, everyone!

研究室メンバーに見守られる中、板橋康知さん、岩川光一さん、朱灏丞さん、 内藤悠さん、中野雄斗さん、野末慎之介さん、原知正さん、羽根田賢和さん、松﨑孝介さん、三浦直己さん、李宰成さん、吉田遥音さん、吉田倖さんの修士論文本審査会が行われました。

坂口・乾研究室 / 鈴木研究室では発表25分・試問15分、松林研究室では発表15分・試問15分の形式で実施されました。

皆さん、おつかれさまでした!

open
2026 Jan.28
News Release

Acceptance to ICLR 2026 / ICLR 2026 採択

The following papers have been accepted to The Fourteenth International Conference on Learning Representations (ICLR 2026).

ICLR 2026 に下記の論文が採択されました。

  • Yui Oka, Kentaro Hanafusa, Taku Hasegawa, Kyosuke Nishida, Kuniko Saito.
    “Probing Rotary Position Embeddings through Frequency Entropy”
  • Yui Oka, Itsumi Saito, Kyosuke Nishida, Kuniko Saito.
    “How Base Frequency Shapes RoPE: An Analytical Study of Frequency-Band Formation”
  • Taisei Yamamoto, Ryoma Kumon, Danushka Bollegala, Hitomi Yanaka.
    “Neuron-Level Analysis of Cultural Understanding in Large Language Models”
  • Kazuki Yano, Shun Kiyono, Sosuke Kobayashi, Sho Takase, Jun Suzuki.
    “Pre-training LLM without Learning Rate Decay Enhances Supervised Fine-Tuning”
  • Taishi Nakamura, Satoki Ishikawa, Masaki Kawamura, Takumi Okamoto, Daisuke Nohara, Jun Suzuki, Rio Yokota.
    “Optimal Sparsity of Mixture-of-Experts Language Models for Reasoning Tasks”
open
2026 Jan.23
Talk

2025.1.23 MiCS: Dr. Hideto Kazawa / MiCS(みちのく情報伝達学セミナー):賀澤秀人氏ご講演

Dr. Hideto Kazawa from Google DeepMind gave a talk entitled “Thinking About the Future of AI” (MiCS)

Google DeepMindの賀澤秀人氏に、「AIのこれからを考える」という表題でご講演いただきました。 (みちのく情報伝達学セミナー)

open
2026 Jan.22
News Release

An interview article featuring Assistant Professor Reina Akama was published in the Asahi Shogakusei Shimbun / 赤間怜奈助教のインタビュー記事が朝日小学生新聞に掲載

An interview article featuring Assistant Professor Rena Akama was published in the Asahi Shogakusei Shimbun issued on November 25, 2025, under the feature “Recreating Popular Story Characters with AI? How ‘Authenticity’ Emerges Through the Power of Fans — Insights from the Developers and Supervisors of the RD Development Project.”

2025年11月25日に発刊された朝日小学生新聞「物語の人気キャラをAIで再現? / ファンたちの力で宿る「らしさ」「RD育成プロジェクト」の開発・監修者に聞く」に、赤間怜奈助教のインタビュー記事が掲載されました。

2025年11月25日(火)の朝日小学生新聞にもRDが登場! 1・2面の大特集

open
2026 Jan.22
News Release

An interview article featuring Assistant Professor Reina Akama Featured in the Asahi Junior & Senior High School Newspaper / 赤間怜奈助教のインタビュー記事が朝日中高生新聞に掲載

An interview article featuring Assistant Professor Reina Akama was published in the Asahi Junior & Senior High School Newspaper on November 16, 2025, under the title “Creating and Using Generative AI.”

2025年11月16日に発刊された朝日中高生新聞「つくる つかう 生成 AI」に、赤間怜奈助教のインタビュー記事が掲載されました。

【速報】2025年11月16日の朝日中高生新聞にRDが登場! 監修・赤間怜奈先生のインタビュー記事掲載

open
2026 Jan.13
Talk

Invited Talk at Logic Festa 2026 / 科学基礎論学会2025年度研究例会ロジックフェスタ2026にて招待講演を行いました

Associate Professor Sho Yokoi was invited to give a talk titled “‘Non-Logical’ Capacities of Language Models” at Logic Festa 2026, held on January 10th, 2026 .

2026年1月10日に開催された科学基礎論学会2025年度研究例会(ロジックフェスタ2026)にて、横井祥准教授が『言語モデルを支える「非」論理的能力』のタイトルで招待講演を行いました。

open
2026 Jan.06
News Release

Acceptance to EACL 2026 / EACL 2026 採択

The following papers have been accepted to The 19th Conference of the European Chapter of the Association for Computational Linguistics (EACL 2026).

EACL 2026 に下記の論文が採択されました。

Main Conference

  • Ryo Fujii, Makoto Morishita, Kazuki Yano, Jun Suzuki.
    “TimeMachine-bench: A Benchmark for Evaluating Model Capabilities in Repository-Level Migration Tasks”
  • Rongzhi Li, Hitomi Yanaka.
    “NeuronMoE: Efficient Cross-Lingual Extension via Neuron-Guided Mixture-of-Experts”
  • Rifo Ahmad Genadi, Munachiso Samuel Nwadike, Nurdaulet Mukhituly, Tatsuya Hiraoka, Hilal AlQuabeh, Kentaro Inui.
    “Sycophancy Hides Linearly in the Attention Heads”

Findings

  • Keito Kudo, Yoichi Aoki, Tatsuki Kuribayashi, Shusaku Sone, Masaya Taniguchi, Ana Brassard, Keisuke Sakaguchi, Kentaro Inui.
    “LLMs Faithfully and Iteratively Compute Answers During CoT: A Systematic Analysis With Multi-step Arithmetics”
  • Keigo Shibata, Kazuki Yano, Ryosuke Takahashi, Jaesung Lee, Wataru Ikeda, Jun Suzuki.
    “Suppressing Final Layer Hidden State Jumps in Transformer Pretraining”
open
2025 Dec.26
News Release

Received Best Presentation Awards at the 34th Doctoral Student Presentations / 第34回博士後期課程学生発表会ベストプレゼンテーション賞受賞

2nd-year Doctoral student Mengyu Ye and Yui Oka received the Best Presentation Award at the 34th Doctoral Student Presentations held on December 12th. Congratulations!

12月12日に開催された第34回博士後期課程学生発表会にて、葉夢宇 (博士課程2年)と岡佑依(社会人博士課程2年)がベストプレゼンテーション賞を受賞しました。おめでとうございます!

open
2025 Dec.24
Talk

2025.12.23 MiCS: Dr. Goro Kobayashi, Dr. Sosuke Kobayashi and Mr. Daichi Kato / MiCS(みちのく情報伝達学セミナー):小林悟郎氏、小林颯介氏、加藤大地氏ご講演

Dr. Goro Kobayashi, Dr. Sosuke Kobayashi and Mr. Daichi Kato from Preferred Networks, Inc. gave a talk entitled “What kind of work do NLPers who join Preferred Networks (PFN) typically do?” (MiCS)

株式会社Preferred Networksの小林悟郎氏、小林颯介氏、加藤大地氏に、「Preferred Networks (PFN) に行った NLPer は何をしているのか」という表題でご講演いただきました。(みちのく情報伝達学セミナー)

open
2025 Dec.22
News Release

NeurIPS 2025 Competition MMU-RAG Award / NeurIPS 2025 コンペティション MMU-RAG 受賞

The following paper received the Best Static Evaluation (Open-Source) in the Text-to-Text Track at NeurIPS 2025 Competition MMU-RAGent. Congratulations!

東北大学、株式会社Studio Ousia、株式会社電通総研の合同チームの下記の研究がNeurIPS 2025 Competition MMU-RAGentにて”The Best Static Evaluation (Open-Source) in the Text-to-Text Track“を受賞しました。おめでとうございます!

  • Ikuya Yamada, Wataru Ikeda, Ko Yoshida, Mengyu Ye, Hinata Sugimoto, Masatoshi Suzuki, Hisanori Ozaki, Jun Suzuki.
    “An Open and Reproducible Deep Research Agent for Long-Form Question Answering”
open
2025 Dec.18
Blog

Farewell party and End-of-year party! / 新メンバーの歓迎会と忘年会を開催しました

The Sakaguchi–Inui Laboratory, Suzuki Laboratory, Matsubayashi Laboratory, and Saito Laboratory jointly held a welcome party for new members and a year-end party. Alumni of the laboratories also joined the event, and participants enjoyed lively conversations with people they do not usually have many opportunities to talk with.

坂口・乾研究室、鈴木研究室、松林研究室、齋藤研究室合同で、新メンバー歓迎会と忘年会を行いました。研究室OBの皆さんも参加し、普段は話す機会の少ない相手とも話に花を咲かせました。

open
2025 Dec.17
News Release

Publication in the Journal of Natural Language Processing Volume 32 Number 4 / 自然言語処理 32巻4号 発行

The following articles have been included in the Journal of Natural Language Processing Volume 32 Number 4.

下記の論文と記事が採録された『自然言語処理』32巻4号が発行されました。

  • 沼屋 征海, 守屋 彰二, 佐藤 志貴, 赤間 怜奈, 鈴木 潤
    “スタイル類似の知覚主体が対話評価に与える影響”
  • 佐藤 元紀, 赤間 怜奈
    “第20回言語処理若手シンポジウム(YANS2025)開催報告”
  • 鈴木 潤
    “ACL Rolling Review Editor-in-Chief で得た経験の共有”

open
2025 Dec.15
News Release

The Thirty-Ninth Annual Conference on Neural Information Processing Systems (NeurIPS 2025) / NeurIPS 2025 発表

The following work was presented at the The Thirty-Ninth Annual Conference on Neural Information Processing Systems, held in San Diego from December 2nd to 7th.

12月2日から7日にかけてサンディエゴで開催された NeurIPS 2025 にて、下記の発表を行いました。

  • Mengyu Ye, Jun Suzuki, Tatsuro Inaba and Tatsuki Kuribayashi.
    “Transformer Key-Value Memories Are Nearly as Interpretable as Sparse Autoencoders”
  • Dongyuan Li, Shiyin Tan, Ying Zhang, Ming Jin, Shirui Pan, Manabu Okumura and Renhe Jiang.
    “DyG-Mamba: Continuous State Space Modeling on Dynamic Graphs”

open
2025 Dec.12
Talk

Talk at the Noto-Workshop on Machine Learning and Physics 2025 / Noto-Workshop on Machine Learning and Physics 2025にてトークを行いました

Associate Professor Sho Yokoi gave a talk titled “Natural Language as a Geometric Object” at the Noto-Workshop on Machine Learning and Physics 2025 held from December 9th to 11th.

12月9日から11日にかけて開催されたNoto-Workshop on Machine Learning and Physics 2025にて、横井祥准教授が「言語の表現学習と意味の形」のタイトルでトークを行いました。

open
2025 Dec.11
Talk

2025.12.11 MiCS: Mr. Ryo Ueda / MiCS(みちのく情報伝達学セミナー):上田亮氏ご講演

Mr. Ryo Ueda from Tokyo University gave a talk entitled “Language Emergence: An Overview and Recent Highlights from My Research” (MiCS)

東京大学の上田亮氏に、「言語創発という分野について+最近の私の研究について」という表題でご講演いただきました。(みちのく情報伝達学セミナー)

open
2025 Nov.21
Talk

Professor Jun Suzuki gave a talk on the interview series “Symbol Emergence Crosstalk” / 連続対談シリーズ「記号創発クロストーク」にてトークを行いました

Professor Jun Suzuki gave a talk entitled “The Present and Future of LLMs” on the interview series “Symbol Emergence Crosstalk” released on April 25th.

4月25日に配信された連続対談シリーズ「記号創発クロストーク」にて、鈴木潤教授が「LLMの現在地と未来」のタイトルでトークを行いました。

open
2025 Nov.17
Talk

Associate Professor Sho Yokoi gave a talk on the interview series “Symbol Emergence Crosstalk” / 連続対談シリーズ「記号創発クロストーク」にてトークを行いました

Associate Professor Sho Yokoi gave a talk entitled “Why do we perceive intelligence in LLMs?” on the interview series “Symbol Emergence Crosstalk” released on November 12th.

11月12日に配信された連続対談シリーズ「記号創発クロストーク」にて、横井祥准教授が「なぜLLMに知性を感じるのか」のタイトルでトークを行いました。

open
2025 Nov.17
News Release

The 28th Information-Based Induction Sciences Workshop (IBIS2025) / 第28回情報論的学習理論ワークショップ (IBIS2025)

The following works have been presented at the 28th Information-Based Induction Sciences Workshop (IBIS2025) held from November 12 to 15.

11月12日から11月15日にかけて開催された第28回情報論的学習理論ワークショップ (IBIS2025) にて、下記の発表をおこないました。

ポスタープレゼンテーション

  • 原知正, 栗田宙人, 今泉允聡 (東京大学, 京都大学, 理化学研究所), 乾健太郎 (MBZUAI・東北大学・理化学研究所), 横井祥 (国立国語研究所・東北大学・理化学研究所)
    “なぜ一次モーメント情報のみ残したテキスト埋め込みはうまく動くのか?:単語埋め込み集合における二次モーメント情報の崩壊の分析”
  • 笠浦一海 (オムロンサイニックエックス株式会社), 恩田直登 (オムロンサイニックエックス株式会社), 折池雄太 (株式会社サイバーエージェント), 谷口雅弥 (理化学研究所), 三内顕義 (京都大学), 園田翔 (理化学研究所 / 株式会社サイバーエージェント)
    “Discovering New Theorems via LLMs with In-Context Proof Learning in Lean”
  • 石峯拓海 (東京大学・国立国語研究所), 日野英逸 (統計数理研究所), 横井祥 (国立国語研究所・東北大学・理化学研究所)
    “言語モデルの最終隠れ状態のソフト分割可能な単体複体としての分析”
  • 三原朋樹 (筑波大学), 石川勲 (京都大学), 横井祥 (国立国語研究所・東北大学・理化学研究所)
    “p進数を用いた単語埋め込みについて”

企画セッション

  • 谷中瞳 (東京大学・理化学研究所)
    “範疇文法と論理:理論と応用”

open
2025 Nov.06
News Release

Publication at the “Artificial Intelligence” / 「人工知能」誌にエッセイが掲載されました

The essay written by Specially Appointed Associate Professor Benjamin Heinzerling has been published in “Artificial Intelligence“.

ハインツァリング・ベンヤミン特任准教授の執筆したエッセイが、「人工知能」誌2025年40巻6号「グローバルアイ〔第79回〕ドイツのグラドゥイアーテンコレーク:博士号を取るなら10人ぐらいの仲間と」に掲載されました。

open
View More News

これ以上は記事がありません

これ以上は記事がありません

Recent Changes
Close