・Meta「Llama 4」、モデル全体としては巨大なパラメータ数を維持しつつも、実際の計算時には必要な部分だけを効率的に活用 ・業界最長の1,000万トークンに対応、従来の約78倍という圧倒的な差 ・社内の膨大なドキュメントや過去の事例を学習させ ...
Meta(メタ)のAIモデル「Llama 4」はどんな特徴が? Metaによれば、従来のモデルよりも政治的な偏りが少ないそうで、政治的に意見が分かれそうな質問に対する回答を許容することで、この改善を実現したそうです。 またLlama 4は、イーロン・マスクの ...
Metaは、同社のAIツール向け大規模言語モデル(LLM)「Behemoth」の公開を秋まで延期したと報じられている。当初は4月、同社初のAIカンファレンス「LlamaCon」に合わせてリリース予定だったが、6月に変更した後、さらに延期したとThe Wall Street Journal(WSJ)が米国 ...
会員(無料)になると、いいね!でマイページに保存できます。 Metaの最高AI責任者(Chief AI Officer)であるアレクサンドル・ワン(Alexandr Wang)が社内のQ&Aセッションで「Mango」と「Avocado」の開発計画を共有した。「Mango」は主に画像・動画生成に特化したAI ...
米Metaは9月25日(現地時間)、年次開発者会議「Meta Connect 2024」で、同社のLLM「Llama」の最新版「Llama 3.2」のリリースを発表した。7月に「Llama 3.1」をリリースしたばかりだが、初のマルチモーダルモデルの追加など、大きな更新になった。 Llama 3.2を発表する ...
Metaが画像や動画内のどのピクセルがどのオブジェクトと関係したものかを正確に識別することができる統合AIモデルの「Segment Anything Model 2(SAM 2)」を発表しました。SAM 2を利用することであらゆるオブジェクトをセグメント化し、動画のすべてのフレームに ...
メタ・プラットフォームズの最高経営責任者(CEO)であるマーク・ザッカーバーグは9月25日(米国時間)、同社の人工知能(AI)アシスタント「Meta AI」をアップグレードし、俳優のジュディ・デンチやプロレスラーのジョン・シナなど、さまざまな有名人の ...
Metaがテキストや視覚的なサンプルをプロンプトとして使用し、画像やビデオ内のオブジェクトを検出、分割、追跡するための統合モデル「Meta Segment Anything Model 3(SAM 3)」を発表しました。 Introducing Meta Segment Anything Model 3 and Segment Anything Playground https://ai.meta ...
一部の結果でアクセス不可の可能性があるため、非表示になっています。
アクセス不可の結果を表示する