2025-03-01から1ヶ月間の記事一覧
ワークロードとは何か? ワークロード (Workload) とは、一般的にシステムやクラウド環境で実行されるアプリケーションやタスクの集合を指します。特にクラウドコンピューティングの分野では、ワークロードは特定の処理を実行するための計算リソースの負荷や…
AzureのAI関連のサービスですが、用途や対象分野が異なり、それぞれのStudio(モデルの開発や運用を行うためのGUIツール)。以下の文章でそれぞれのStudioに関連するサービスにについて詳しく説明します。 1. Machine Learning Studio (Azure Machine Learning…
DeepSeek-R1の公式論文に基づき、その推論LLM(大規模言語モデル)に適したプロンプトの書き方について、以下の点に注意する必要があります。 1. 問題と出力フォーマットを直接記述(ゼロショット設定) 簡潔で明確に: DeepSeek-R1はプロンプトに対して非常…
Java はもともと高並行性のために特化して設計されたわけではありませんが、強力な並行プログラミングのサポートを提供しており、マルチスレッド処理を効率的に行うことができます。以下に、Java の並行処理について詳しく説明します。 1. Java の並行処理モ…
複数のプログラミング言語は、設計段階から並行処理(Concurrency)を考慮しており、並行プログラミングを簡単にするための専用の言語機能やライブラリを提供しています。以下に、並行処理のために設計されたプログラミング言語とその特徴を紹介します。 1. …
AIME 2024 評価結果 AIME(AI Mathematics Evaluation)は、人工知能の数学的推論能力を評価するためのテストです。2024 年のテストでは、さまざまなモデルが数学やプログラミングのタスクにおいて次のような結果を示しました。 評価データ モデル名 AIME 20…
Transformerモデル(BERT、GPT-2、LLAMA)のユーザ自己学習において、「学習が成功した」と判断する基準は、タスクの目標、モデルの性能、収束状況、および実際の応用要件によって決まります。以下では、各タスクごとの判断基準を詳しく説明します。 1. 事前…
RTX 3070Ti(8GB VRAM)を使用してTransformerモデルの事前学習(BERT、GPT-2)やLLM(LLAMA)の継続事前学習、指示微調整(Instruction Tuning)を行う際の設定や戦略についてまとめました。 なお、VRAMの制約やハードウェア性能の影響で、特に大規模な事前…
実際のアプリケーションにおいて、推論LLMのパフォーマンス評価は、単なる技術指標だけでなく、ユーザー体験、業務効率、運用コストにも直接影響を与えます。そのため、複数の重要な指標を総合的に分析し、さまざまなビジネスシーンで効率的に運用できるよう…
1. Context Window と最大コンテキスト長 LLM のコンテキストウィンドウ(context window)は、推論時に処理可能な最大コンテキスト長を決定する。 2. 質問(Input 入力) 質問は入力の一部として、課金対象となる。 3. CoT(最大 CoT 長) CoT の長さは 最…
推論LLMは、ステップごとの論理検証と自己修正メカニズムによって、コード生成の信頼性と説明可能性を大幅に向上させており、特に複雑なシステム開発に適している。 一方、通常のLLMは高速な応答性を持ち、シンプルなスクリプト作成には依然として有効なツー…
1. すべての計算が推論 LLM に適しているわけではない。 推論 LLM(例: DeepSeek-R1、OpenAI 01)は、複雑なコードタスクを複数のステップに分解し、論理チェーンを形成する。この逐次推論のアプローチは人間のプログラマーの思考プロセスに似ており、コード…
DeepSeek‑R1‑Zero と DeepSeek‑R1 は、どちらも同じ DeepSeek‑V3‑Base アーキテクチャを基にしていますが、学習手法、出力の質、実用性において顕著な違いがあります。 1. 学習方法の違い DeepSeek‑R1‑Zero は完全に強化学習(RL)のみを使用し、ベースモデ…
Spring Batch はバッチ処理のためのフレームワークであり、トランザクション管理をサポートしています。データベース以外のファイル処理のようなシナリオでも、トランザクション管理の概念を適用できます。以下、Spring Batch におけるファイル処理のトラン…