-
★科学ニュース+ 4res 0.5res/h
【AI】スパコン富岳で「純国産」の生成AI 東工大や富士通
スパコン富岳で「純国産」の生成AI 東工大や富士通 富士通のCPUを載せたスパコン「富岳」で大規模言語モデルを開発した東京工業大学と富士通などは10日、スーパーコンピューターの「富岳(ふがく)」を使って生成AI(...
-
★ビジネスニュース+ 22res 0.0res/h
【AI】アップル、高度な言語理解を持つ新型AIモデル「MM1」を発表
アップルの研究チームは3月14日、画像とテキストを理解し処理する能力を持つマルチモーダル大規模言語モデル「MM1」を発表した。今のところ論文のみの公開で、一般公開の時期は明かされていない。...
-
★科学ニュース+ 8res 0.0res/h
【AI】東大ベンチャーELYZA、GPT-3.5 Turboレベルの日本語LLM発表
東大ベンチャーELYZA、GPT-3.5 Turboレベルの日本語LLM発表文● 田口和裕 東京大学松尾研究室発のAIベンチャー「ELYZA」は3月13日、700億パラメーターの最新日本語大規模言語モデル(LLM)「ELYZA-japanese-Llama-2-70...
-
★科学ニュース+ 32res 0.0res/h
【AI】Microsoftがたった13億のパラメーターでGPT-3.5超えのパフォーマンスをたたき出す「phi-1」を発表
LLaMaやFalconといった小型の大規模言語モデル(LLM)が矢継ぎ早にリリースされる中、Microsoft ResearchのAI研究チームが、プレプリントサーバーのarXivで、Transformerベースのモデル「phi-1」を発表しました。この...
-
★科学ニュース+ 27res 0.0res/h
【機械学習】GPUメモリが小さくてもパラメーター数が大きい言語モデルをトレーニング可能になる手法が登場、一体どんな手法なのか?
GPT-1は1億1700万個のパラメーターを持つ言語モデルで、GPT-2では15億、GPT-3では1750億とパラメーター数が増加するにつれて言語モデルの性能が上がってきています。しかしパラメーター数が増加するにつれてトレーニ...
-
★ニュース速報+ 54res 0.4res/h
【ネット】FacebookがURLの形式を変更。一部ブラウザーが実装したパラメーター削除機能への対策か
Facebookが、URLに埋め込まれるパラメーターのフォーマットを変更したことが明らかになった。一部ブラウザーが実装したパラメーター削除機能への対策とみられる。これまでFacebookでは、ユーザーを追跡するためのパ...
-
★科学ニュース+ 43res 0.0res/h
【ハードウェア】1億6300万のコアで120兆個のAIパラメーターをトレーニング可能なモンスターマシン「Cerebras CS-2」が発表される
1億6300万のコアで120兆個のAIパラメーターをトレーニング可能なモンスターマシン「Cerebras CS-2」が発表される シリコンバレーのチップ製造スタートアップ・Cerebras Systemsが2021年8月24日に、1枚のシリコンウェ...
-
★科学ニュース+ 89res 0.0res/h
【AI】中国の研究チームが新たなAI「悟道2.0」を発表、パラメーター数は1兆7500億でGoogleとOpenAIのモデルを上回る
中国の研究チームが新たなAI「悟道2.0」を発表、パラメーター数は1兆7500億でGoogleとOpenAIのモデルを上回る中国政府による資金援助を受けている北京智源人工知能研究院が主導する研究チームが2021年6月1日、新たな...