Working in StatPhys & ML, Assoc. Prof. @OchadaiNews, Team Director @RIKEN_AIP, Visiting Assoc. Prof. @tousuuken & Board of Director, Japan Stat. Soc.
Quantized neural network training optimizes a discrete, non-differentiable objective. The straight-through estimator (STE) enables backpropagation through surrogate gradients and is widely used....
46 papers were accepted at NeurIPS 2025, which is known as a top conference on machine learning. For more details, please refer to the link below: [NeurIPS 2025] There were 21,575 full paper submis...
富士通は生成AI(人工知能)の基盤となる大規模言語モデル(LLM)で、一定の計算精度を維持しつつ消費電力を削減できる技術を開発したと発表した。AIが学習した膨大な知識を圧縮し、演算負荷を低減する。高性能な画像処理半導体(GPU)4枚を必要としていたAIモデルを、低性能のGPU1枚で動かせるようになる。LLMは一般に性能の指標となる「パラメーター」数が大きいほど幅広い知識を身につけられる。一方で