AzureでCode Interpreterが使えるようになりました!!!Azure OpenAI Serviceの最新の機能アップデートをチェック

先日、“Code Interpreter”を含んだAzure OpenAI Serviceの様々なアップデートがありましたので、以下、Microsoft社の英語コラムを参照しながら、最新機能の概要確認を目的として、コラムとしたいと思います。

techcommunity.microsoft.com

以下、元の英文を示しつつ、日本語で分かりやすく内容を纏めて説明したいと思います。

本コラムで紹介する最新機能

Today, we are thrilled to announce many new capabilities, models, and pricing improvements within the service. We are launching Assistants API in public preview, new text-to-speech capabilities, upcoming updated models for GPT-4 Turbo preview and GPT-3.5 Turbo, new embeddings models and updates to the fine-tuning API, including a new model, support for continuous fine-tuning, and better pricing. Let’s explore our new offerings in detail.

以下、本コラムの紹介機能になります

  1. Assistants API(Code Interpreter/ Function calling)
  2. ファインチューニング: 新機種対応、新機能、低価格化
  3. 新モデルとモデル・アップデート
  4. 新しいテキスト読み上げ機能
  5. 価格を抑えた新世代の埋め込みモデル

1. Assistants API(Code Interpreter/ Function calling)

まずは、以下の動画をご覧ください。この動画は、Azure OpenAI Serviceの新機能、Assistants APIを紹介しています。雰囲気を感じ取って頂ければと思います。

youtu.be

We are excited to announce, Assistants, a new feature in Azure OpenAI Service, is now available in public preview. Assistants API makes it simple for developers to create high quality copilot-like experiences within their own applications. Previously, building custom AI assistants needed heavy lifting even for experienced developers. While the chat completions API is lightweight and powerful, it is inherently stateless, which means that developers had to manage conversation state and chat threads, tool integrations, retrieval documents and indexes, and execute code manually. Assistants API, as the stateful evolution of the chat completion API, provides a solution for these challenges.

Azure OpenAI Service の新機能である Assistants がパブリックプレビューで利用可能になりました。Assistants API は、独自のAIアシスタントを構築し、ユーザーに優れた体験を提供することができます。

Building customizable, purpose-built AI that can sift through data, suggest solutions, and automate tasks just got easier. The Assistants API supports persistent and infinitely long threads. This means that as a developer you no longer need to develop thread state management systems and work around a model’s context window constraints. Once you create a Thread, you can simply append new messages to it as users respond. Assistants can access files in several formats - either while creating an Assistant or as part of Threads. Assistants can also access multiple tools in parallel, as needed. These tools include:

Assistants APIの導入により、データ選別、解決策提案、タスク自動化を目的としたカスタマイズ可能なAIの構築が容易になりました。以下、2つの機能がそれらを実現するための機能になります。

Code Interpreter: This Azure OpenAI Service-hosted tool lets you write and run Python code in a sandboxed environment. Use cases include solving challenging code and math problems iteratively, performing advanced data analysis over user-added files in multiple formats and generating data visualization like charts and graphs.

コードインタープリター: Azure OpenAI Serviceがホストするこのツールは、サンドボックス環境でPythonコードを書いて実行することができます。使用例としては、困難なコードや計算問題を反復的に解決したり、ユーザーが追加した複数の形式のファイルに対して高度なデータ分析を実行したり、チャートやグラフのようなデータ可視化を生成したりすることができます。

Function calling: You can describe functions of your app or external APIs to your Assistant and have the model intelligently decide when to invoke those functions and incorporate the function response in its messages.

関数の呼び出し: アプリや外部APIの関数をアシスタントに記述し、モデルがそれらの関数を呼び出すタイミングをインテリジェントに決定し、関数のレスポンスをメッセージに組み込むことができます。

Assistants API is built on the same capabilities that power OpenAI’s GPT product and offers unparalleled flexibility for creating a wide range of copilot-like applications. Use cases span a wide range: AI-powered product recommender, sales analyst app, coding assistant, employee Q&A chatbot, and more. Start building on the no-code Assistants playground on start building with the API.

Assistants APIは、OpenAIのGPT製品と同じ機能に基づいて構築されています。ユースケースは以下の用に多岐にわたります。

  • AIを搭載した製品レコメンダー
  • セールスアナリストアプリ
  • コーディングアシスタント
  • 従業員Q&Aチャットボット など

As with the rest of our offerings, data and files provided by you to the Azure OpenAI Service are not used to improve OpenAI models or any Microsoft or third-party products or services, and developers can delete the data as per their needs. Learn more about data, privacy and security for Azure OpenAI Service here. We recommend using Assistants with trusted data sources. Retrieving untrusted data using Function calling, Code Interpreter with file input, and Assistant Threads functionalities could compromise the security of your Assistant, or the application that uses the Assistant. Learn about mitigation approaches here.

Azure OpenAI Serviceに提供されたデータやファイルは、OpenAIのモデルやマイクロソフトまたはサードパーティの製品やサービスを改善するために使用されることはありません。Azure OpenAI Serviceのデータ、プライバシー、セキュリティについては、こちらをご覧ください。 Data, privacy, and security for Azure OpenAI Service - Azure AI services | Microsoft Learn

Transparency Note for Azure OpenAI - Azure AI services | Microsoft Learn

2.ファインチューニング: 新機種対応、新機能、低価格化

Since we announced Azure OpenAI Service fine-tuning for OpenAI’s Babbage-002, Davinci-002 and GPT-35-Turbo on October 16, 2023, we’ve enabled AI builders to build custom models. Today we’re releasing fine-tuning support for OpenAI’s GPT-35-Turbo 1106, a next gen GPT-3.5 Turbo model with improved instruction following, JSON mode, reproducible outputs, parallel function calling, and more. Fine-tuning with GPT-35-Turbo 1106 supports 16k context length in training data, allowing you to fine-tune with longer messages and generate longer and more coherent texts.

2023年10月16日にOpenAIのBabbage-002、Davinci-002、GPT-35-Turboのファインチューニングができるようになりました。今回のUpdateでは、OpenAIのGPT-35-Turbo 1106のファインチューニングサポートがリリースされました。GPT-35-Turbo 1106は、改良された命令フォロー、JSONモード、再現可能な出力、並列関数呼び出しなどを備えた次世代GPT-3.5 Turboモデルです。GPT-35-Turbo 1106のファインチューニングは、トレーニングデータで16kのコンテキスト長をサポートし、より長いメッセージでファインチューニングを行い、より長く一貫性のあるテキストを生成することができます。

Azure OpenAI Service モデル - Azure OpenAI | Microsoft Learn

In addition, we are introducing two new features to enable you to create more complex custom models and easily update them. First, we are launching support for fine-tuning with function calling that enables you to teach your custom model when to make function calls and improve the accuracy and consistency of the responses. Second, we are launching support for continuous fine-tuning, which allows you to train a previously fine-tuned model with new data, without losing the previous knowledge and performance of the model. This lets you add additional training data to an existing custom model without starting from scratch and lets you experiment more iteratively.

さらに、より複雑なカスタムモデルを作成し、簡単に更新できるように、

  1. 関数呼び出しによるファインチューニングのサポート
  2. 継続的なファインチューニングのサポート

の新機能がリリースされました。

Besides new model support and features, we are making it more affordable for you to train and host your fine-tuned models on Azure OpenAI Service, including decreasing the cost of training and hosting GPT-35-Turbo by 50%.

新しいモデルのサポートと機能に加えて、GPT-35-Turboのトレーニングとホスティングのコストを50%削減するなど、Azure OpenAI Service上でファインチューニングしたモデルをより手頃な価格でトレーニングおよびホスティングできるようにしています。

3.新モデルとモデル・アップデート

The following models and model updates are coming this month to Azure OpenAI Service. You can review the latest model availability here.

Azure OpenAI Serviceでは、今月、以下のモデルおよびモデルのアップデートが予定されています。最新のモデルについては、こちらをご覧ください。

Azure OpenAI Service models - Azure OpenAI | Microsoft Learn

GPT-4 Turbo preview と GPT-3.5 Turbo modelsの更新

We are rolling out an updated GPT-4 Turbo preview model, gpt-4-0125-preview, with improvements in tasks such as code generation and reduced cases of “laziness” where the model doesn’t complete a task. The new model fixes a bug impacting non-English UTF-8 generations. Post-launch, we’ll begin updating Azure OpenAI deployments that use GPT-4 version 1106-preview to use version 0125-preview. The update will start two weeks after the launch date and complete within a week. Because version 0125-preview offers improved capabilities, customers may notice some changes in the model behavior and compatibility after the upgrade. GPT-4-0125-preview is now live in East US, North Central US, and South Central US. Pricing for gpt-4-0125-preview will be same as pricing for gpt-4-1106-preview.

GPT-4ターボのプレビューモデルgpt-4-0125-previewがリリースされ、前モデルと比べコード生成などのタスクが改善されました。新しいモデルでは、英語以外のUTF-8世代に影響するバグが修正されています。

In addition to the updated GPT-4 Turbo, we will also be launching gpt-3.5-turbo-0125, a new GPT-3.5 Turbo model with improved pricing and higher accuracy at responding in various formats. We will reduce input prices for the new model by 50% to $0.0005 /1K tokens and output prices by 25% to $0.0015 /1K tokens.

価格設定と様々なフォーマットでの応答精度を向上させた新しいGPT-3.5 Turboモデル、gpt-3.5-turbo-0125がリリースされます。新モデルの入力価格は50%引きの$0.0005 /1Kトークンに、出力価格は25%引きの$0.0015 /1Kトークンになります。

4.新しいテキスト読み上げ機能

Our new text-to-speech model generates human-quality speech from text in six preset voices, each with its own personality and style. The two model variants include tts-1, the standard voices model variant, which is optimized for real-time use cases, and tts-1-hd, the high-definition (HD) equivalent, which is optimized for quality. This new includes capabilities such as building custom voices and avatars already available in Azure AI and enables customers to build entirely new experiences across customer support, training videos, live-streaming and more. Developers can now access these voices through both services, Azure OpenAI Service and Azure AI Speech.

新しい音声合成モデルは、テキストから人間品質の音声を6つのプリセット音声で生成します。リアルタイムのユースケースに最適化された標準音声モデルのtts-1と、品質に最適化された高画質(HD)モデルのtts-1-hdがあります。この新機能には、Azure AIで既に利用可能なカスタムボイスやアバターの構築などの機能が含まれ、顧客はカスタマーサポート、トレーニングビデオ、ライブストリーミングなどで全く新しい体験を構築できるようになります。

Announcing OpenAI text-to-speech voices on Azure OpenAI Service and Azure AI Speech - Microsoft Community Hub

5.価格を抑えた新世代の埋め込みモデル

Azure OpenAI Service customers have been incorporating embeddings models in their applications to personalize, recommend and search content. We are excited to announce a new generation of embeddings models that are significantly more capable and meet a variety of customer needs. These models will be available later this month.

以下、新しい2つの埋め込みモデルが、今月末に利用可能になる予定です。

text-embedding-3-small is a new smaller and highly efficient embeddings model that provides stronger performance compared to its predecessor text-embedding-ada-002. Given its efficiency, pricing for this model is $0.00002 per 1k tokens, a 5x price reduction compared to that of text-embedding-ada-002. We are not deprecating text-embedding-ada-002 so you can continue using the previous generation model, if needed. text-embedding-3-large is our new best performing embeddings model that creates embeddings with up to 3072 dimensions. This large embeddings model is priced at $0.00013 / 1k tokens. Both embeddings models offer native support for shortening embeddings (i.e. remove numbers from the end of the sequence) without the embedding losing its concept-representing properties. This allows you to make trade-off between the performance and cost of using embeddings.

Model 1000トークンあたりの価格 説明
text-embedding-3-small $0.00002 前身であるtext-embedding-ada-002に比べ、より小型で高効率な埋め込みモデルです。text-embedding-ada-002と比較して5倍の価格削減を実現しています。
text-embedding-3-large $0.00013 最大3072次元の埋め込みを作成する、私たちの新しい最高性能の埋め込みモデルです。

まとめ

Microsoft社の英語コラムを参照しながら、Azure OpenAI Serviceの最新機能に関して確認を行いました。 特に、Assistants API関連は、今後の展開に非常に重要な要素なので、技術検証を早速始めています。

生成AIや、Azure OpenAI Serviceのご活用等に関してご相談を希望される方は、こちらのお問い合わせフォームからご連絡ください。

AITCお問い合わせフォーム

執筆
AITC センター長
深谷 勇次