メインコンテンツへスキップ

LLM ノード

Large Language Model(LLM)ノードは、データの処理・分析・整形のために設計されています。OpenAI や AWS Bedrock を利用した LLM モデルを使用して、データの解釈・生成・変換を行うことができます。複雑なフローのロジックを定義する代わりに、Identify eks clusters that are using a version that will expire in less than 90 days from today and return the clusters arn のようなプロンプトを指定するだけで済みます。LLM ノードは、その結果として得られたデータをフロー内の他のノードで利用できるようにし、さらなるアクションを実行できます。

さらに、フロー内の前のノードから特定のフィールドを参照することで、より正確で一貫性のある出力を得ることができます。値やパラメータタイプの参照方法については、Parameter types を参照してください。その後、LLM ノードは生成されたデータを単一フィールドまたは JSON オブジェクトとして出力し、通知の送信など、フロー内の次のステップで利用できるようにします。

LLM node example configuration

  • Prompt: プロンプトを入力します。

  • (オプション)Context: LLM モデルに追加のコンテキストを提供するために動的コンテンツを追加します。

  • Referencing the output(出力の参照):

    • Basic referencing(基本的な参照): AI によって生成された出力を単一のフィールドで参照します。

    • Advanced referencing(高度な参照): AI によって生成された出力を複数のフィールド(オブジェクト)で参照します。JSON schema で参照するフィールドを定義します。

CloudFlow では、出力スキーマは、ノードのコードまたは設定から返される値のみを表します。実行ログに表示される実行メタデータは対象外です。

出力スキーマを定義する際は、次の点に注意してください。

  • トップレベルのタイプを正確に一致させます:objectarraystringnumberbooleannull のいずれか。

  • スキーマの形状を再帰的に定義します。

    • object の場合は、properties(および必要に応じて required)を定義します。
    • array の場合は、items(各要素のスキーマ)を定義します。
  • CloudFlow の実行ラッパー(例:resultsmessagecontext)をスキーマに含めないでください。これらはランタイムのラッパーであり、ノードの機能的な出力ではありません。

パターンの例:

  • ノードがオブジェクトを返す場合:
{ "type": "object", "properties": { "foo": { "type": "string" } } }
  • ノードが配列を返す場合:
{ "type": "array", "items": { "type": "number" } }

原則として、ノードの出力を独立した JSON ドキュメントとしてコピー&ペーストしたときに、下流のノードが受け取ることになる JSON 値に対してスキーマを記述してください。

Test

ノードをテストするには、Test を選択してください。