AI News Hub
AIの重要ニュース・話題を一目でチェック- 2025年6月26日(木)OpenAIがDeep Research APIをリリース、高度なエージェント機能を提供OpenAIが「Deep Research API」をリリースしました。このAPIには、MCP、検索、コードインタープリターをネイティブでサポートする「o3-deep-research」と「o4-mini-deep-research」モデルが含まれており、マルチエージェント設定を含む高度なエージェント機能を実現します。Googleが発表していたDeep Research APIのリリースに先駆けての発表となりました。Google、エッジデバイス向けマルチモーダルAIモデル「Gemma 3n」を発表GoogleがマルチモーダルAIモデル「Gemma 3n」をリリースしました。このモデルは、わずか3GBのRAMでエッジデバイス上での動作に最適化されており、LMSys Arenaで1300という高いスコアを達成しています。新しいMatFormerアーキテクチャを採用し、Hugging Face、Ollama、MLXなどのエコシステムと統合されています。Black Forest Labs、GPT-4oに匹敵する画像編集AI「FLUX.1 Kontext [dev]」を公開Black Forest Labsが、命令ベースの画像編集に特化した120億パラメータのオープンウェイトモデル「FLUX.1 Kontext [dev]」をリリースしました。このモデルはGPT-4oのようなプロプライエタリモデルに匹敵する性能を持つとされています。DeepMind、遺伝子機能予測AI「AlphaGenome」を発表DeepMindが、100万塩基対のDNAを読み取り、遺伝子機能を予測できるAIモデル「AlphaGenome」を発表しました。これはAI生物学における大きな進歩と見られています。Sakana AI、強化学習でLLM推論を強化するRLT技術を発表Sakana AIが、LLMの推論能力を向上させる強化学習型教師(RLT)技術を発表しました。この技術により、MiniF2Fで86.1%のスコアを達成し、計算効率の高い新たなパレートフロンティアを確立しました。
- 2025年6月25日(水)GoogleがオープンソースのGemini CLI Agentをリリースしました。これはGemini 2.5 Proを搭載し、MCP(Multi-Character Prompts)をサポートしています。開発者は1日あたり1,000リクエスト、1分あたり60リクエストという寛大な無料枠で利用できます。Anthropicが「Artifacts」と「Artifacts Gallery」をリリースしました。これにより、ユーザーはClaude内でClaudeを構築できるようになり、リアルタイムでの共同作業と開発が可能になります。LM StudioがMCP Host機能を導入し、ローカルLLMとの接続を可能にしました。また、LlamaIndexはClaude互換のMCPサーバーを構築するためのオープンソースのNext.jsテンプレートをリリースし、MCPエコシステムの拡大を推進しています。OpenRouterは、モデルの稼働状況を監視するための新しいAPIを公開し、BYOK(Bring Your Own Key)機能も強化しました。これにより、開発者はAIモデルの使用状況をより詳細に管理できるようになります。UnslothがIntel XPUのサポートを発表しました。これは、Intelが年内に48GB GPUを1,000ドル以下でリリースする予定であることから、予算に優しいGPUへのアクセスが拡大する可能性を示唆しています。
- 2025年6月24日(火)Anthropic、著作権訴訟でフェアユースの判決を獲得連邦裁判所は、AnthropicがClaudeのトレーニングに著作権で保護された書籍を使用したことはフェアユースであるとの判決を下しました。この判決はAI業界にとって重要な判例となりますが、海賊版データの使用については別途問題が残っています。Replit、ARR1億ドルを突破Replitが年間経常収益(ARR)1億ドルを達成し、2024年末の1000万ドルから大幅な成長を遂げました。これはAI開発ツールの急速な普及を示しています。Delphi、デジタルマインド拡張のため1600万ドルを調達Delphiがデジタルマインドを拡張するために1600万ドルのシリーズA資金調達を実施しました。これにより、人間の専門知識をAIを通じてよりアクセスしやすく、発見しやすくすることを目指します。Google DeepMind、ロボット向けGemini Robotics On-Deviceを発表Google DeepMindが、ロボット上で直接動作するコンパクトな基盤モデル「Gemini Robotics On-Device」をリリースしました。これにより、低接続環境でも高速かつ高性能なロボット制御が可能になります。ディズニーとユニバーサル、Midjourneyを著作権侵害で提訴ディズニーとユニバーサルがMidjourneyを提訴しました。Midjourneyが著作権で保護された画像(スパイダーマンやシンプソンズなど)を無許可でモデルのトレーニングに使用したと主張しています。
- 2025年6月23日(月)Sakana AIが、LLMに推論を教えるための新しい技術「Reinforcement-Learned Teachers (RLTs)」を発表しました。これは、より小さな7Bパラメータモデルを強化学習で訓練し、段階的な説明を通じて推論能力を学生モデルに蒸留するもので、Chain-of-Thought学習を加速させます。Mistral AIがMistral Small 3.2のアップデートを発表し、命令追従と関数呼び出しの機能が向上しました。実験的なFP8量子化も導入されています。Googleがリアルタイム音楽生成のための800Mパラメータのオープンウェイトモデル「Magenta RealTime」をリリースしました。これは、この種のモデルとしては初めてのものです。Arcee AIが、Llama 3を拡張した10Bパラメータ以下の基盤モデル「AFM-4.5B」を発表しました。これは、顧客のニーズに応えるために5ヶ月以上かけて開発されました。STORMは、Mambaレイヤーを使用してビデオ入力を8倍に圧縮するテキスト-ビデオモデルで、MVBenchでGPT-4oを上回る70.6%のスコアを記録しました。
- 2025年6月20日(金)Mistral AIが「Mistral Small 3.2」をリリース。命令追従性、繰り返し出力の削減、関数呼び出し機能が向上し、Hugging Faceで利用可能。vLLMもサポート。Google DeepMindが「Gemini 2.5 Flash-Lite」を発表。視覚情報からUIコードを生成する能力を披露し、Geminiアプリでの動画アップロードも可能に。Appleの3BパラメータオンデバイスモデルがベンチマークでGemmaやQwen3に劣るものの、2ビット量子化によりメモリ効率が高く、バックグラウンドタスクに適していると評価。Google DeepMindが8億パラメータの音楽生成モデル「Magenta Real-time」をApache 2.0ライセンスで公開。Hugging FaceでGoogleの1000番目のモデルとなる。Kuaishouが新しい動画モデル「KLING 2.1」をAPI経由で公開。Alibabaも2Bおよび7Bの動画LLM「VideoRefer-VideoLLaMA3」をApache 2.0ライセンスでリリース。
- 2025年6月19日(木)OpenAIは、GPT-4oのようなモデルを安全でないコードでトレーニングすると、広範な誤動作を引き起こす可能性があるという論文を発表しました。これに対し、専門家からは懸念の声が上がっています。カリフォルニア州のAI規制に関する取り組みが注目されており、Yoshua Bengio氏は透明性と内部告発者保護の重要性を強調しています。LLMの会話品質が時間とともに低下する「コンテキスト腐敗」という用語が提唱され、Embraのようなシステムは堅牢性のためにCRMのようなAIメモリを使用しています。Kyutaiは、単一のH100 GPUで400のリアルタイムストリームを処理できる最先端の音声認識モデル「stt-1b-en_fr」と「stt-2.6b-en」をリリースしました。Tencentは、初のオープンソースでプロダクション対応のPBR 3D生成モデル「Hunyuan 3D 2.1」を発表しました。
- 2025年6月18日(水)Meta AI、トップAI人材に1億ドル規模のボーナスと給与を提示Meta AIは、Sam Altman氏が確認したところによると、トップAI人材に対し、8桁から9桁の契約ボーナスと給与を提示している。また、AI GrantファンドのNat氏とDan氏のような主要人物を戦略的採用のターゲットとしている。Essential AI、24兆トークンの大規模データセット「Essential-Web v1.0」をリリースEssential AIは、24兆トークンからなる大規模な事前学習データセット「Essential-Web v1.0」をリリースした。このデータセットには、キュレーションを容易にするための豊富なメタデータと12カテゴリの分類が含まれている。DeepLearning.AIとMeta AI、Llama 4の新モデルとコースを発表DeepLearning.AIとMeta AIは、Llama 4に関する新しいショートコースを開始した。このコースでは、Maverick(400BパラメータのMoEモデル)とScout(109BパラメータのMoEモデル)といったLlama 4の新しいモデルが紹介されており、それぞれ最大1Mおよび10Mトークンのコンテキストウィンドウをサポートしている。MiniMax、長文LLM「MiniMax-M1」をオープンソース化し、ビデオモデル「Hailuo 02」を発表MiniMaxは、1Mトークンのコンテキストウィンドウを持つ長文コンテキストLLM「MiniMax-M1」をオープンソース化し、品質とコスト効率に焦点を当てたビデオモデル「Hailuo 02」を発表した。OpenAI、ChatGPT macOSアプリに「レコードモード」を導入OpenAIは、macOSデスクトップアプリのChatGPT Pro、Enterprise、Eduユーザー向けに「レコードモード」を展開している。
- 2025年6月17日(火)Gemini 2.5 Pro/Flashが一般提供開始、Flash-Liteがプレビュー公開GoogleがGemini 2.5 ProとFlashモデルの一般提供を開始し、Gemini 2.5 Flash-Liteのプレビュー版も公開しました。これらのモデルは、Mixture-of-Experts (MoE)トランスフォーマーとマルチモーダルサポートを特徴としています。特に、Gemini Plays Pokemonの30ページにわたる技術レポートでは、長期間の計画能力が強調されています。Moonshot AIがSOTAのコーディングLLM「Kimi-Dev-72B」をオープンソース化Moonshot AIがオープンソースのコーディングLLM「Kimi-Dev-72B」を公開し、SWE-bench Verifiedで60.4%のSOTAを達成しました。しかし、異なる評価方法では精度が43%低下する可能性も指摘されています。LLMのコーディング能力に課題、小規模特化モデルが台頭LiveCodeBench-Proの新しいベンチマークでは、最先端のLLMでも難しいコーディング問題では0%のスコアしか出せないことが明らかになりました。一方で、小規模で特化したモデル(Nanonets-OCR-s、II-Medical-8B-1706、Jan-nano)が優れた性能を示し、モデルの規模が必ずしも性能に直結しないことが強調されています。Kling AIがビデオ生成能力をデモ、キャラクターの動きに注目Kling AIが、Ghibli風のアニメーションやASMRビデオを含む複数のデモ動画を公開し、そのビデオ生成能力を披露しました。特にキャラクターの動きのニュアンスが評価されています。GroqがHugging Faceと統合、高速推論を提供GroqがHugging Faceとの大規模な統合を発表し、Hugging Face PlaygroundとAPIで高速な推論を提供します。これは、既存のクラウドプロバイダーへの挑戦と見られています。
- 2025年6月17日(火)MiniMax AIが4560億パラメータのオープンウェイトLLM「MiniMax-M1」を発表。100万トークンの入力と8万トークンの出力をサポートし、効率的な「lightning attention」とGRPOの派生であるCISPOを使用。また、ByteDanceのSeedanceに似た動画モデル「Hailuo 02 (0616)」も発表。Moonshot AIがコーディングモデル「Kimi-Dev-72B」をリリース。SWEBench VerifiedでDeepSeek R1を上回る性能を示し、オープンソースのコーディングLLMとして新たなSotAを達成。大規模な強化学習パイプラインで最適化され、Docker内の実際のコードベースを自律的にパッチ適用し、テストスイートを通過した場合にのみ報酬を得る。AnthropicのClaude Opus 4をリードエージェント、Claude Sonnet 4をサブエージェントとするマルチエージェントシステムが、単一のOpus 4よりも内部評価で90.2%高い性能を示した。このシステムは並列化と広範なツール使用により、チャットの約15倍のトークンを使用する。Sakana AIが、NP困難な最適化問題を解決するコーディングエージェント「ALE-Agent」を発表。AtCoder Heuristic Competitionで1000人中21位にランクインし、複雑な課題に対する新しい解決策を発見する能力を示した。ALE-Benchデータセットとコードも公開されている。Googleが動画モデル「Veo 3」をAI ProおよびUltraの購読者向けに70以上の市場で展開開始。また、AlibabaのQwen3モデルがMLX形式でリリースされ、4bit、6bit、8bit、BF16の4つの量子化レベルでApple Silicon向けに最適化されている。
- 2025年6月13日(金)マルチエージェントAI開発の二極化:CognitionとAnthropicの対立Cognition社のWalden Yan氏が「マルチエージェントを構築するな」と提言した一方で、Anthropic社はClaudeのマルチエージェント研究アーキテクチャを用いたマルチエージェントシステムの構築アプローチを共有し、AIコミュニティ内でマルチエージェントAI開発に関する議論が活発化しています。Hugging Face、TensorFlowとFlaxのサポートを終了しPyTorchへ集中Hugging Faceは、PyTorchへの集中を理由に、TransformersライブラリにおけるTensorFlowとFlaxのサポートを非推奨にすると発表しました。これにより、AIフレームワークのPyTorchへの統合が進むことが示唆されます。LangChain、LinkedInとBlackRockでのAIエージェント実用化事例を公開LangChainは、LinkedInやBlackRockがLangChainとLangGraphを使用して本番環境のAIエージェントを構築した事例を紹介し、コンテキストエンジニアリングとAIエージェントの実用化における進展を強調しました。LlamaIndex、エージェント向け構造化メモリ機能を発表LlamaIndexは、エージェント向けの構造化アーティファクトメモリブロックを発表しました。これは、Pydanticスキーマを追跡し、フォーム入力などのタスクに不可欠なエージェントの記憶能力を向上させます。Anthropic、事前学習モデルからの能力引き出しとモデル差分技術を発表Anthropicは、外部からの監視なしに事前学習済みモデルから能力を引き出す新しい研究を発表しました。また、モデル間の差分を解釈可能な形で生成する「モデル差分」技術についても議論されました。