"MPT"検索結果
2026-02-13
09:46

XRP Ledgerはトークンのロック管理の新時代を切り開き、XLS-85の導入によりRLUSDなどの資産をブロックチェーン上でロックできるようになりました。

2023年2月13日、XRP Ledgerは正式にトークンホスティング修正案XLS-85を有効化し、発行済みの交換可能なトークンに対してホスティングアカウントを作成できるようになった。これにより、XRP自体だけでなく、Trust Lineトークンやマルチユーストークン(MPT)も条件付きでオンチェーン上にロックでき、分散型金融やエンタープライズアプリケーションにおいてより柔軟な資産管理手法を提供する。 この修正案は2026年1月30日に再び30のバリデーターの支持を得て、アクティベーションの閾値を超え、2週間後に稼働した。以前は2025年9月にXLS-85が通過に近づいたが、MPT標準との非互換性により意見の対立が生じ、支持率は一時16票にまで下がった。XRPLのdUNLバリデーターであるVetは、ホスティング会計における送金手数料や供給量追跡の欠陥を指摘し、その後コミュニティはfixTokenEscrowV1を導入し、Rippled v3.0.0に組み込むことで信頼を回復し、最終的な有効化を推進した。
もっと
XRP1.38%
MPT-8.53%
02:48

🚀ミラクルプレイ(MPT)トレーディングコンテストが10,000ドル相当の賞金で開幕! ⏳ イベント期間: 04.22-04.29 11:00AM [UTC+8] ✅ $MPT$ をトレードして $8,000 のシェアを獲得する ✅ 新規ユーザーが1,000ドルの賞金プールを山分けできる限定特典 ✅ 新規ユーザーを招待して$1,000の報酬を楽しもう 💸 参加する: https://www.gate.io/zh/article/36075 #Gateio #MPT #Trade
もっと
MPT-8.53%
04:57

ミニAIのオープンソースモデルであるTinyLlamaがリリースされ、わずか637MBを占有します

1月6日のWebmaster's Homeのレポートによると、TinyLlamaチームは、わずか637MBしか占有しない高性能AIオープンソースモデルであるTinyLlamaをリリースしました。 TinyLlama は、10 億のパラメータとマルチドメイン言語モデル研究のための優れたパフォーマンスを備えた Meta のオープンソース言語モデル Llama2 のコンパクト バージョンであり、その最終バージョンは、Pythia-1.4B、OPT-1.3B、MPT-1.3B など、同等のサイズの既存のオープンソース言語モデルよりも優れています。 TinyLlama はエッジ デバイスに展開でき、大規模モデルの投機的デコードを支援するためにも使用できると報告されています。
もっと
07:39

Baidu スマート クラウド「Qianfan Large Model Platform」アップグレード: LLaMA2 を含む 33 モデルへのアクセス

8月2日の「科創版日報」の報道によると、百度スマートクラウドQianfan大規模モデルプラットフォームは新たなアップグレードラウンドを完了し、LLaMA2、ChatGLM2、RWKV、MPT、Dollyの全シリーズを含む33の大規模モデルに完全にアクセスしたとのこと。 、OpenLLaMA、Falcon は中国で最も多くの大規模モデルを備えたプラットフォームとなり、接続されたモデルは Qianfan プラットフォームの二次的なパフォーマンス強化を受けており、モデル推論のコストを 50% 削減できます。同時に、Qianfan プラットフォームは、対話、ゲーム、プログラミング、ライティングの 10 以上のシナリオをカバーする 103 のテンプレートを含む preset_template ライブラリを開始しました。さらに、このアップグレードでは、多数の新しいプラグインが再びリリースされました。
もっと
06:55

AI企業MosaicMLは300億パラメータモデルMPT-30Bを発表、トレーニングコストは競合製品のほんの一部であると述べた

IT House の 6 月 25 日のレポートによると、AI スタートアップの MosaicML は最近、言語モデル MPT-30B をリリースしました。このモデルには 300 億のパラメータがあり、トレーニング コストは「他の同様の競合モデルのほんの一部です。」 AIモデルの応用をより幅広い分野に拡大します。 MosaicML の CEO 兼共同創設者である Naveen Rao 氏は、MPT-30B のトレーニング費用は 70 万米ドル (約 502 億 4,400 万元) であり、GPT などの同様の製品に必要な数千万ドルよりもはるかに低いと述べました。 3.さらに、MPT-30B はコストが低く、サイズも小さいため、より迅速にトレーニングすることができ、ローカル ハードウェアへの展開により適しています。 MosaicML は、Alibi と FlashAttend テクノロジーを使用してモデルを最適化し、テキストの長さを長くし、GPU コンピューティングの利用率を高めることができると報告されています。 MosaicML は Nvidia H100 GPU を使用できる数少ないラボの 1 つでもあり、以前の成果と比較して、各 GPU の現在のスループットは 2.4 倍以上増加し、完了時間を短縮できます。
もっと