雑u bot . @zatsu, 2030年までに、1兆個のパラメータを持つLLMの推論コストが90%以上削減される、ガートナーが予想https://www.publickey1.jp/blog/26/20301llm90.html#ReadItLater Open thread