メインコンテンツへスキップ
マーケット
Meme Pump
戦略
トラッカー
スマートマネーを追跡し、リアルタイムで動きを確認する
リーダーボード
トップトレーダーをフォローし、動きをそのまま反映する
シグナル
現物市場のシグナルを捉え、あらゆるチャンスをつかむ
スワップ
ポートフォリオ
紹介
Onchain OS
開発者
ドキュメント
API キーを管理する
X Layer
X Layer について
X Layer エクスプローラー
チェーン間取引
開発者向けテクニカルドキュメント
テストネットフォーセット
GitHub
ブロックチェーンエクスプローラー
さらに見る
DeFi
マケプレ
セキュリティ
Boost
X Launch
参加してトークンを獲得しよう
X キャンペーン
参加して報酬を獲得しよう
報酬センター
ボーナスとエアドロップを受け取る
アラート
言語
通貨
DEX の機能
色の好み
OKX ウォレットをダウンロード
Web3 の詳細
お知らせ
戻る
日本語
简体中文
繁體中文
English
Tiếng Việt
Русский
Español (Latinoamérica)
Bahasa Indonesia
Français
Deutsch
Italiano
Polski
Čeština
Română
Português (Portugal)
Português (Brasil)
Українська
Español (España)
Nederlands
العربية
Norsk (bokmål)
Suomi
Svenska
Türkçe
戻る
戻る
詳しく知る
サポートセンター
戻る
トークン名を翻訳
X のコンテンツを翻訳
ホバーするとトークンカードが表示されます
トレンドトピック
#
Bonk Eco continues to show strength amid $USELESS rally
Hosico
+0.33%
USELESS
+6.93%
IKUN
+5.04%
gib
+5.86%
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
Bonk
+0.64%
ALON
+1.26%
LAUNCHCOIN
+2.53%
GOONC
+0.45%
KLED
+2.42%
#
Boop.Fun leading the way with a new launchpad on Solana.
BOOP
-0.51%
Boopa
+4.37%
PORK
0.00%
Profile
Chris Laub
Chris Laub
3月14日 17:27
🚨 NVIDIA は不可能なことをやり遂げました。 彼らは、10兆個のトークンで12Bパラメータの言語モデルを完全に4ビットの精度でトレーニングしました。 これは NVFP4 と呼ばれ、フロンティア AI モデルのトレーニング方法を再定義する可能性があります。 これが重要な理由は次のとおりです。 NVFP4 は、FP8 と比較して 2 〜 3× 高速な演算スループットと 50% 少ないメモリを実現します。 •精度。実質的に同じです。(MMLU-Pro:FP8 = 62.62%、NVFP4 = 62.58%) • 安定性の問題?ランダム アダマール変換、確率的丸め、および 2D スケーリングを使用して解決 • NVIDIA Blackwell GPU で完全にトレーニングされ、10T トークンで安定した最初の 4 ビット実行 精度を損なうことなく、大規模な4ビット事前学習の実証に成功したのは初めてです。 次世代のフロンティア モデルは、妥協することなく、より速く、より安価で、より環境に優しいものになります。
65
Chris Laub
3月13日 19:56
MITはAIとMLに関する12冊の書籍を提供しています(無料ダウンロード可能): 1. 機械学習の基礎 2. ディープラーニングの理解 3. 機械学習のアルゴリズム 4. 強化学習 5. 機械学習システム入門 6. ディープラーニング 7. 分散強化学習 8. マルチエージェント強化学習 9. AIの長期ゲームにおけるエージェント 10. 公平性と機械学習 インターネット上で無料で受けられる機械学習コースに年間5万ドルを支払っているのです。 ブックマークしてください。共有してください。
65
Chris Laub
3月12日 18:07
🚨 速報:Googleの研究者でありチューリング賞受賞者の人物が、AIの真の危機を暴露する論文を発表しました。 それは訓練じゃない。それは推測です。そして、私たちが使っているハードウェアは、決してそのために設計されたものではありません。 論文は馬小雨とデイビッド・パターソンによるものです。IEEE Computerに承認、2026年。 誇張はない。製品発売もありません。ハードウェアレベルでLLMの提供が根本的に壊れている理由を、簡潔に説明します。 核心的な主張は残酷です: → GPU FLOPSは2012年から2022年の間に80倍に成長しました → 同じ期間にメモリ帯域幅はわずか17倍に増加しました → HBMの1GBあたりのコストは下がるのではなく上昇しています → デコードフェーズはメモリに縛られ、計算に縛られるわけではありません → トレーニング用に設計されたチップで推論を構築しています ここが一番驚くべき部分です: OpenAIは収益37億ドルに対し、約50億ドルの損失を出しました。ボトルネックはモデルの品質ではありません。すべてのトークンをすべてのユーザーに配信するコストです。推論はこれらの企業を搾り取っています。 そして、同時に状況を悪化させている5つの傾向があります: →DeepSeek-V3のようなMoEモデル、256人のエキスパーソンがメモリを爆発的に使っています → 回答前に大規模な思考連鎖を生成する推論モデル → マルチモーダル入力(画像、音声、映像)がテキストを小さくする → KVキャッシュをストレインする長コンテキストウィンドウ → リクエストごとにより多くのコンテキストを注入するRAGパイプライン 彼らが提案した4つのハードウェア転換案: → 高帯域幅フラッシュ:HBMレベルの帯域幅で512GBスタック、ノードあたり10倍のメモリ増加 → プロセッシング・ニアメモリ:同じチップ上ではなくメモリの隣に配置される論理ダイ → 3Dメモリロジック積み重ね:HBMの2〜3倍低い電力を垂直接続で提供します → 低レイテンシインターコネクト:ホップ数の減少、ネットワーク内計算、SRAMパケットバッファ CerebrasやGroqのようなSRAM専用チップを試した企業はすでに失敗し、DRAMを再び追加しなければなりませんでした。 この新聞は商品を売っているわけではありません。ハードウェアのボトルネック全体をマッピングし、業界が間違った問題を解決していると言います。 論文は2026年1月に配布されました。最初のコメント👇にリンクがあります
222
トップ
ランキング
お気に入り