Azure OpenAI Service使ってみた#1 ~インターネット接続編~

はじめに

こんにちは、BBSakura Networks株式会社(以降BBSakura)にてOCXのクラウド直接接続サービスの運用を担当している太田と申します。

このブログシリーズでは、OCXを用いた閉域網でAzure OpenAI Service(以降OpenAI Service)を利用する構成例を3回にわたってご紹介します。

Azure OpenAI Service | Microsoft Azure

第1部となる本記事では、OpenAI Serviceの基本的な使い方を体験するため、まずはインターネット経由でOpenAI Serviceを利用し、Webアプリケーションと連携させる手順をご説明します。

続く第2部では、今回作成したWebアプリケーションへの閉域接続に必要となるAzure側のネットワーク設定について解説します。そして最後の第3部では、Azureとお客様環境をOCX経由で接続し、実際に閉域アクセスを実現する手順をご紹介しますので、ぜひ最後までお付き合いください。

第2部はこちら: Azure OpenAI Service使ってみた#2 ~閉域接続のためのAzureネットワーク設定編~

構成図

ユーザーPCからインターネットを経由してAzure App Service上のWebアプリにアクセスし、そのWebアプリがAzure OpenAI Serviceと連携するシステム構成図
構成図

上記のような構成図でまずはOpenAI Serviceに触れてみようと思います。

  • 前提
    • Azureポータルにてリソースの作成ができる状態

手順目次

  1. OpenAI Serviceの作成
  2. AIモデルのデプロイとAzure App Serviceへのデプロイ
  3. WebアプリケーションにてAIと対話

1. OpenAI Serviceの作成

1-1. 作成画面へ

Microsoft Azure ホーム画面の上の検索欄で [Azure OpenAI] と検索の上、 「Azure OpenAI」 画面を開きます。

1-2. 基本設定

開いた画面で [作成] を押下すると、以下のような 「Azure OpenAI の作成」 画面が表示されます。

Azure OpenAI Service作成画面の「基本」タブ。サブスクリプション、リソースグループ、リージョン、名前、価格レベルの各入力項目が表示されている。
1.1 OpenAI Service基本タブ

以下項目を入力して [次へ] を押下します。

項目 パラメータ
サブスクリプション 該当のサブスクリプションを選択
リソースグループ 作成済みのリソースグループを選択
リージョン Japan East
名前 任意
価格レベル 任意

1-3. ネットワーク設定

[ネットワーク]タブで「インターネットを含むすべてのネットワークがこのリソースにアクセスできます。」を選択します。

Azure OpenAI Service作成画面の「ネットワーク」タブ。「インターネットを含むすべてのネットワークがこのリソースにアクセスできます。」のオプションが選択されている状態。
1.2 OpenAI Service ネットワークタブ

1-4. リソースの作成

手順に沿って[次へ]を押下し、最後に[作成]を押下すると、OpenAIリソースが作成されます。

2. AIモデルのデプロイとAzure App Serviceへのデプロイ

<注釈>
・本記事では簡素にするため、参考例として本方式でのデプロイを採用させていただいています。
・選択するAIモデルによってはAzure App Service(以降App Service)へのデプロイができない場合があります。

 

2-1. Azure AI Foundryへ

作成した以下のようなAzure OpenAIリソース画面を開き、 [Go to Azure AI Foundry portal] を押下します。

Azure OpenAI Serviceのリソース画面。「モデルデプロイ」セクションにある「Go to Azure AI Foundry portal」ボタンが示されている。
2.1 作成後のOpenAI Service

2-2. AIモデル設定画面へ

Azure AI Foundry(以降AI Foundry)画面にて[チャット]を選択して、[新しいデプロイの作成]→[基本モデルから]を選択して押下します。

Azure AI Foundryのポータル画面。「作成」メニューの「チャット」が選択され、「新しいデプロイの作成」から「基本モデルから」を選択するドロップダウンが表示されている。
2.2 AI Foundry

2-3. AIモデルの選択

[gpt-35-turbo]を選択し、[確認]を押下します。

Azure AI Foundryのモデル選択画面。「gpt-35-turbo」モデルが選択され、「確認」ボタンが表示されている。
2.3 AIモデル選択

2-4. 詳細設定

詳細設定画面が表示されます

Azure AI FoundryのAIモデルデプロイ詳細設定画面。デプロイ名、デプロイの種類、デプロイの詳細といった入力項目が表示されている。
2.4 AIモデル詳細設定

以下項目を入力して [次へ] を押下します。

項目 パラメータ
デプロイ名 任意
デプロイの種類 Standard
デプロイの詳細 任意

2-5. Webアプリデプロイ画面へ

AI Foundry画面に戻り、[チャット]を選択して、[デプロイ]→[...Webアプリとして]を選択して押下します。

Azure AI Foundryのチャットモデル一覧画面。作成されたデプロイ済みモデルの「デプロイ」メニューから「...Webアプリとして」を選択する箇所が示されている。
2.5 AIモデル デプロイ後

2-6. Webアプリデプロイ設定

以下のような 「Webアプリにデプロイ」 画面が表示されます。

Azure AI Foundryの「Webアプリにデプロイ」画面。「新しいWebアプリを作成する」が選択され、名前、サブスクリプション、リソースグループ、場所、価格プラン、チャット履歴有効化の各設定項目が表示されている。
2.6 Webアプリにデプロイ

[新しいWebアプリを作成する]を選択し、以下項目を入力して [展開] を押下します。

項目 パラメータ
名前 任意
サブスクリプション 該当のサブスクリプションを選択
リソースグループ 作成済みのリソースグループを選択
場所 Japan East
価格プラン Free以外で任意
Webアプリでチャット履歴を有効にする 任意

2-7. Webアプリデプロイ確認

10~15分程度待つとWebアプリがデプロイされます。確認は[デプロイ]を選択して、[アプリのデプロイ]→[デプロイ状態]から行えます。

Azure AI Foundryの「デプロイ」タブ内、「アプリのデプロイ」セクション。「デプロイ状態」の確認箇所が示されている。
2.7 デプロイ状況確認

3. WebアプリケーションにてAIと対話

3-1. 「App Services」へ

Microsoft Azure ホーム画面の上の検索欄で [App Services] と検索の上、 「App Services」 画面を開きます。

3-2. デプロイされたWebアプリへ

デプロイされたWebアプリを選択し、[ドメイン]→[既定のドメイン]に書かれたドメインを押下します。

AzureポータルのApp Services一覧画面。デプロイされたWebアプリが選択され、その「既定のドメイン」URLが示されている。
3.1 App Services

3-3. AIと対話

アクセス許可が求められるので[承諾]を押下すると、アプリが表示されます。AIと対話してみましょう。

デプロイされたWebアプリケーションのチャット画面。「今日の天気は?」というユーザーの質問に対し、AIが「今日の東京の天気は晴れです」と回答している対話の様子。
3.2 WebアプリでAIと対話

おわりに

今回は、Azure OpenAI Serviceをインターネット経由で利用し、Webアプリケーションと連携させる手順をご紹介しました。比較的簡単にAIサービスに触れられることを実感いただけたのではないでしょうか。

次回はいよいよ、本題であるOCXを用いた閉域接続の準備段階として、Azure側でのネットワーク基盤の構築と設定について詳しく解説していきます。

最後までお読みいただき、ありがとうございました。