創屋ぷれす

BitNet b1.58 2B4T

Microsoftは2025年4月、3値量子化(-1, 0, +1)を用いた軽量大規模言語モデル「BitNet b1.58 2B4T」を発表。

情報量は約1.58ビットながら、従来のフル精度モデル並みの性能を実現。モデルサイズは約0.4GBと小さく、11のベンチマークで平均60点超を記録。
効率性と高性能を両立し、エッジAI分野での活用が期待される。設計思想は“最小限の情報量で最大限の性能を引き出す”ことに基づいている。

このモデルを使うプログラムは、GitHubで公開されている
メモリの使用量は、400MB以下とされている。
また、CPU上で約0.3秒で応答が返ってくるかなり軽量なものとなっている

創屋のホームページはこちらから

Comments are closed.