2025-03-01から1ヶ月間の記事一覧

【AI-900】Azure AIサービスにおけるAIワークロードの概念とServerlessの役割

ワークロードとは何か? ワークロード (Workload) とは、一般的にシステムやクラウド環境で実行されるアプリケーションやタスクの集合を指します。特にクラウドコンピューティングの分野では、ワークロードは特定の処理を実行するための計算リソースの負荷や…

【AI-900】Azure AI Studioシリーズ:各AIサービスの概要と活用方法

AzureのAI関連のサービスですが、用途や対象分野が異なり、それぞれのStudio(モデルの開発や運用を行うためのGUIツール)。以下の文章でそれぞれのStudioに関連するサービスにについて詳しく説明します。 1. Machine Learning Studio (Azure Machine Learning…

推論LLMのDeepSeek-R1のプロンプト設計ガイド:一般的なLLM(CRISPE)との違いと最適な書き方

DeepSeek-R1の公式論文に基づき、その推論LLM(大規模言語モデル)に適したプロンプトの書き方について、以下の点に注意する必要があります。 1. 問題と出力フォーマットを直接記述(ゼロショット設定) 簡潔で明確に: DeepSeek-R1はプロンプトに対して非常…

Java は並行処理のために設計された言語ですか?

Java はもともと高並行性のために特化して設計されたわけではありませんが、強力な並行プログラミングのサポートを提供しており、マルチスレッド処理を効率的に行うことができます。以下に、Java の並行処理について詳しく説明します。 1. Java の並行処理モ…

並行処理に特化したプログラミング言語は何ですか?

複数のプログラミング言語は、設計段階から並行処理(Concurrency)を考慮しており、並行プログラミングを簡単にするための専用の言語機能やライブラリを提供しています。以下に、並行処理のために設計されたプログラミング言語とその特徴を紹介します。 1. …

DeepSeekによる知識蒸留:AIME 2024で証明された軽量モデルの数学推論能力

AIME 2024 評価結果 AIME(AI Mathematics Evaluation)は、人工知能の数学的推論能力を評価するためのテストです。2024 年のテストでは、さまざまなモデルが数学やプログラミングのタスクにおいて次のような結果を示しました。 評価データ モデル名 AIME 20…

Transformerモデルのユーザ自己学習における「成功」の判断基準

Transformerモデル(BERT、GPT-2、LLAMA)のユーザ自己学習において、「学習が成功した」と判断する基準は、タスクの目標、モデルの性能、収束状況、および実際の応用要件によって決まります。以下では、各タスクごとの判断基準を詳しく説明します。 1. 事前…

RTX 3070Ti(8GB VRAM)でのLLMの事前学習・微調整戦略

RTX 3070Ti(8GB VRAM)を使用してTransformerモデルの事前学習(BERT、GPT-2)やLLM(LLAMA)の継続事前学習、指示微調整(Instruction Tuning)を行う際の設定や戦略についてまとめました。 なお、VRAMの制約やハードウェア性能の影響で、特に大規模な事前…

実用的な視点から推論LLMを評価する方法

実際のアプリケーションにおいて、推論LLMのパフォーマンス評価は、単なる技術指標だけでなく、ユーザー体験、業務効率、運用コストにも直接影響を与えます。そのため、複数の重要な指標を総合的に分析し、さまざまなビジネスシーンで効率的に運用できるよう…

推論LLM のコンテンツ長と課金の問題について

1. Context Window と最大コンテキスト長 LLM のコンテキストウィンドウ(context window)は、推論時に処理可能な最大コンテキスト長を決定する。 2. 質問(Input 入力) 質問は入力の一部として、課金対象となる。 3. CoT(最大 CoT 長) CoT の長さは 最…

推論LLMは開発分野で通常のLLMを完全に代替できるか?

推論LLMは、ステップごとの論理検証と自己修正メカニズムによって、コード生成の信頼性と説明可能性を大幅に向上させており、特に複雑なシステム開発に適している。 一方、通常のLLMは高速な応答性を持ち、シンプルなスクリプト作成には依然として有効なツー…

汎用大規模モデルと推論モデルの比較

1. すべての計算が推論 LLM に適しているわけではない。 推論 LLM(例: DeepSeek-R1、OpenAI 01)は、複雑なコードタスクを複数のステップに分解し、論理チェーンを形成する。この逐次推論のアプローチは人間のプログラマーの思考プロセスに似ており、コード…

DeepSeek-R1-Zero と DeepSeek-R1 の違いとは?

DeepSeek‑R1‑Zero と DeepSeek‑R1 は、どちらも同じ DeepSeek‑V3‑Base アーキテクチャを基にしていますが、学習手法、出力の質、実用性において顕著な違いがあります。 1. 学習方法の違い DeepSeek‑R1‑Zero は完全に強化学習(RL)のみを使用し、ベースモデ…

Spring Batch におけるファイル処理のトランザクション管理

Spring Batch はバッチ処理のためのフレームワークであり、トランザクション管理をサポートしています。データベース以外のファイル処理のようなシナリオでも、トランザクション管理の概念を適用できます。以下、Spring Batch におけるファイル処理のトラン…