"LLM"検索結果
本日
01:11

TAO 近一个月涨幅 94.9%,Bittensor 完成史上最大去中心化 LLM 预训练

TAOの価格は引き続き上昇し、新たな高値は337.84ドルに達し、24時間で13.6%上昇しました。著名な投資家のジェイソン・カラカニスはTAOを好意的に見ており、そのエコシステムプロジェクトに投資しています。Bittensorのサブネットは重要な事前トレーニングを完了し、実用的な応用能力を備えていることが証明されました。
もっと
TAO10.17%
BTC0.37%
05:03

a16z:AIエージェントによる代理ビジネスモデルがインターネット広告のロジックに挑戦し、2025年の世界オンライン広告市場規模は2910億ドルに達する

Gate Newsの報道によると、3月23日に発表されたMordor Intelligenceのデータによれば、2025年の世界のオンライン広告市場規模は約2910億ドルであり、主にGoogleが支配している。a16zは、1997年から2024年までの間、インターネットビジネスモデルの核心は広告を通じてユーザーの注意の一部を獲得し、それによって収益化することにあったと指摘している。しかし、大規模言語モデル(LLM)やAIエージェントは広告による干渉を受けず、従来の「注意散漫」戦略の基盤はもはや成り立たなくなっている。
もっと
13:08

Tether BitNet LoRA フレームワークをリリース、モバイルデバイスでの大規模言語モデルトレーニングをサポート

Gate Newsの報道によると、3月17日、Tether傘下のQVAC Fabricは、Microsoft BitNet(1ビットLLM)向けの世界初のクロスプラットフォームLoRA微調整フレームワークを発表しました。このフレームワークは、大規模モデルのトレーニングにおけるVRAMと計算能力のハードルを大幅に下げます。さらに、Intel、AMD、Apple Silicon Mシリーズ、そしてモバイルGPU(Adreno、Mali、Apple Bionicを含む)上でのLoRA微調整と推論の高速化をサポートしています。
もっと
07:09

Sentryの共同創設者は、LLMが開発速度を遅らせていることに疑問を呈し、OpenClawが生成するコードが多すぎて自力での救済が難しいと述べている

Sentryの共同創業者であるDavid Cramerは、大規模言語モデルは生産性を向上させておらず、むしろ複雑なコードの生成を促し、開発速度を遅らせていると述べています。彼は自動生成されたコードの方法に疑問を呈し、出力の品質が低く、特に増分開発やスタイルの一貫性において十分でないと考えています。彼は自身の経験に基づき、ソフトウェアの構築は依然として困難であり、心理的な変化が彼の貢献に影響を与えていると指摘しています。
もっと
11:02

中国情報通信研究院と大学が協力して、OpenClawの深刻なコマンドインジェクション脆弱性を発見し修正しました

中国情報通信研究院と大学チームは、オープンソースフレームワークのOpenClawの監査中に、bash-toolsモジュールにLLM駆動型のコマンド注入脆弱性が存在することを発見しました。攻撃者は誘導によるコマンド実行を通じてリモートコードを実行し、データを窃取することが可能です。既に脆弱性の公開手続きが開始され、修正提案も提出されています。
もっと
09:32

AMI Labs共同創業者の謝賽寧(シェ・サイニング):LLMはある意味で「反 Bitter Lesson」、世界モデルこそが未来

Xie Saining criticized the current AI development trajectory dominated by large language models in an interview, arguing that it limits AI's learning from the real world and emphasizing the advantages of world models. He believes that creating intelligent agents capable of surviving in reality is more challenging, mentioning that AMII Labs focuses on real data collection with plans to launch AI smart glasses and robots in the future.
もっと
06:07

Bittensorサブネットが720億パラメータのLLMの事前学習を完了、TAOはここ2週間で54.8%上昇

Bittensor子网Templarは3月10日に、720億パラメータの分散型言語モデル「Covenant-72B」の事前学習を完了しました。このモデルはMMLUテストで優れた成績を収め、複数の集中型基準モデルを上回りました。このプロジェクトには70以上のノードの協力が集まり、すべての重みとチェックポイントはApacheライセンスの下で公開されています。この発表を受けて、Bittensorとそのトークンは全体的に価格上昇しています。
もっと
TAO10.17%
08:37

OpenClawはv2026.3.8バージョンをリリースし、ローカルバックアップCLI、Talkの静粛タイムアウト、Brave検索のLLMコンテキストモードを新たに追加しました。

OpenClawは3月8日にv2026.3.8バージョンをリリースし、ローカル状態のバックアップ、Talk Modeの自動書き起こし、Braveウェブ検索のLLM Contextモードなどの機能を追加しました。複数の問題を修正し、合計43人の貢献者が開発に参加しました。
もっと
03:37

ETH Zurich 実測 AIエージェントのブロックチェーン合意能力:成功率はわずか41.6%

チューリッヒ連邦工科大学の研究チームは、LLMエージェントのビザンチン合意能力を検証し、悪意のあるノードがなくても有効合意率はわずか41.6%にとどまることを発見しました。ノード数が増えるほど合意の難易度は上昇し、悪意のあるノードを追加すると状況はさらに悪化します。研究の結論は、現段階のLLMエージェントは信頼できる合意を実現するには不十分であり、分散型展開には慎重さが求められると指摘しています。
もっと
ETH0.53%
03:07

Andrej Karpathyがオープンソースのautoresearchプロジェクトを立ち上げ、AIによる自動で100回のLLMトレーニング実験を実行

Eureka Labsの創始者であるAndrej Karpathyは、3月8日にオープンソースプロジェクトのautoresearchを公開しました。このプロジェクトは「人がMarkdownを書き、AIがコードを生成する」方式を採用しており、開発者はprogram.mdを通じて研究の方向性を定義し、AIが自律的にコードを最適化します。1時間あたり約12回の実験を行うことができ、83回の実験のうち15回に有効な改善が確認されました。このプロジェクトはNVIDIAのGPUとPyTorchを基盤としており、H100上でテストされ、MITライセンスに従っています。
もっと