• <li id="4eeee"><tt id="4eeee"></tt></li><li id="4eeee"><tt id="4eeee"></tt></li>
  • <li id="4eeee"></li>
  • <tt id="4eeee"></tt>
    <tt id="4eeee"><table id="4eeee"></table></tt><li id="4eeee"></li>
  • <li id="4eeee"><table id="4eeee"></table></li><li id="4eeee"><table id="4eeee"></table></li>
  • DeepSeek-R1の訓練方法が「ネイチャー」に掲載

    人民網日本語版 2025年09月18日14:03

    DeepSeek-AIチームの梁文鋒氏とその同僚は17日に學術誌「ネイチャー」で、オープンソース人工知能(AI)モデル「DeepSeek-R1」が採用する大規模推論モデルの訓練方法を発表した。研究によると、大規模言語モデル(LLM)の推論能力は純粋な強化學習によって向上させることができ、それによって性能向上に必要な人間の入力作業量を削減できる。訓練されたモデルは數學、プログラミング競技、STEM分野の大學院レベルの課題といったタスクにおいて、従來の訓練を受けたLLMよりも優れた性能を示すとしている??萍既請螭瑏护à?。

    DeepSeek-R1には、推論プロセスの最適化を目的とする、人間の監督下で行う深層トレーニング段階が含まれている。梁氏のチームの報告によると、このモデルは推論ステップの開発において人間が示す事例ではなく、強化學習を採用することで、訓練コストと複雑性を低減させている。

    DeepSeek-R1は、優れた問題解決の事例を提示されると、それを基に推論プロセスを生成するテンプレートを得る。つまり、このモデルは問題を解くことでインセンティブを得て、強化學習の効果を高めることができることを意味している。チームは、今後の研究ではインセンティブプロセスの最適化に焦點を當てることで、推論とタスク結果の信頼性を高められるとまとめている。

    AIのパフォーマンスを評価する數學ベンチマークテストにおいて、DeepSeek-R1-ZeroとDeepSeek-R1の得點はそれぞれ77.9%と79.8%だった。プログラミング競技や、大學院レベルの生物學、物理、化學の問題でも優れたパフォーマンスを示している。(編集YF)

    「人民網日本語版」2025年9月18日

    注目フォトニュース

    関連記事

    无码av动漫精品专区