生成AIをより使いやすくするには
テクノロジーの過去のトレンドについて考えてみると、いくつかのパターンが見えてきます。例えば、クラウドコンピューティングには万能のアプローチはありません。オンプレミスやさまざまなクラウドプロバイダーなどの異なるアプローチを組み合わせることで、組織はエンタープライズアプリケーションの展開においてハイブリッドインフラストラクチャのメリットを活用するようになりました。将来について考えると、多様なアプリケーションやビジネス環境で人工知能(AI)を利用するには、同様の仕組みが不可欠になるでしょう。単一のAIアプローチではあらゆる組織のニーズを満たすことはできないため、柔軟性が極めて重要になります。また、単一のAIプラットフォームベンダーがすべてのニーズを満たすこともできません。そのかわりに、あらかじめ構築されたモデル、カスタムチューニングされたソリューション、独自のデータとの安全な統合を組み合わせることで、AIの導入が進むでしょう。オープンなフレームワーク、ソフトウェア、インフラストラクチャのおかげで、あらゆる規模の企業が生成AI(gen AI)モデルにアクセスし、カスタマイズして、それぞれのニーズに適合できるようになったのです。
gen AIのメリットはどこから来るのか?
社内外のアプリケーションでのAIの活用法を理解するために、組織がこのテクノロジーにどのように投資しているかを具体的に見てみましょう。デロイトがまとめた「企業における生成AIの2024年の現状」によると、生成AIに投資する最大のメリットは、ビジネス領域でイノベーションを起こすことよりも、効率と生産性の向上と反復タスクの自動化に集中できることだそうです。これらのモデルが新しいコンテンツを生成できるのは事実ですが、その場合、本当の価値は、大量のデータを理解および処理してパターンを認識する、大規模言語モデル(LLM)によってもたらされます。従来のソフトウェアに適用される場合、インテリジェントアプリケーションとして知られているAIを強化したアプリケーションは、人間のワークフローを補強および支援してくれます。
それでも、AIを導入するまでの道のりはさまざまです。通常、組織は単純なタスクの自動化から始めて、AIをビジネスワークフローに完全に統合する段階へと進んでいきます。このような段階的な導入は、重要でないユースケースを試験的に導入することから始まり、自動コードアシスタントのようなすぐに使えるツールを活用することで、反復作業の時間を削減します。AIの価値に対する信頼が高まるにつれ、開発者と企業はAIを特定のビジネスプロセスやアプリケーションに組み込み始めます。そして、最終段階はカスタマイズです。つまり、組織独自のデータに基づくAIモデルを開発し、AIによるインサイトを得て意思決定を行えるようにするのです。
企業のAI活用が高度化するにつれて、各段階それぞれにメリットと複雑さがもたらされます。これらの段階を詳しく見てみると、AIがあらゆる業務においてどのように重要な要素となり、活用されていくかが明らかになります。
AIの活用:AIによる業務の効率化
ここ数年、私たちの多くは、特に開発者やエンジニアのために、ルーティーンワークの自動化と強化を目指して、gen AIと連動してきました。コードアシスタントはLLMの一般的なユースケースであり、様々なプログラミング言語での反復作業を効率化します。例えば、Red Hat Ansible Lightspeed (および IBM watsonx Code Assistant)やRed Hat OpenShift Lightspeedのようなツールは、ソフトウェア開発タスクや運用IT環境のデバッグを高速化するためにAIを統合しています。実際のところ、これによって反復サイクルが高速化されて冗長な作業が排除されるため、開発者は問題解決と重要な意思決定に集中できるようになります。
ITチームにとって、このようにあらかじめ構築されたモデルは実装が容易であり、最小限の調整で済み、インフラストラクチャを大幅に変更することなく運用できるため、AIを初めて導入するチームにとって利用しやすい選択肢となっています。それが、AIを最初に利用する一般的なアプローチとして、職場効率の改善のために活用される理由となっています。
AIの導入:ビジネスフローにAIを統合
企業がこれらのツールに慣れ親しむと、多くの場合、AIモデルをビジネスオペレーションに導入するようになります。この段階では、AIをアプリケーションに組み込み、ユーザーとのインタラクションを強化したり、自動化されたカスタマーサービスなど、拡張できるタスクをサポートしたりします。一例として、当社のExperience Engineering(XE)は、Mixtral-8x7b-Instructモデルを使用して、サポートケースのソリューションサマリーを130,000件以上生成し、自己解決によるカスタマーエンゲージメントの成功率を20%増加させました。多くの業界では、開発者がAIによる推奨システムや動的な顧客エンゲージメントツールの導入を主導しています。ただし、これらのシステムは、応答が適切かつ有用であることを保証するために、特定のインタラクションパターンやユーザー行動に関するトレーニングなど、場合によって適度にカスタマイズする必要があります。
結局のところ、最新のアプリケーションでAIを使用すると、アプリケーションはユーザーが達成しようとしていることに関するコンテキストを深く把握できるようになります。このコンテキストが一般的な理解であれ、企業特有のものであれ、ITチームによる詳細なトレーニングがなくても、AIは必要なことと目標を達成するための手順を認識します。人間とシステムの間の摩擦を取り除くことが、私たちが最終的にAIテクノロジーで目指すところであり、それは、人間を理解してプロセスの「労力」を軽減するアプリケーションを実現することなのです。
Red Hat OpenShift AIは、クラウドネイティブなアプリケーションプラットフォームと統合するAIプラットフォームであり、開発者がAIモデルを効率的にテスト、デプロイ、反復処理して、顧客のニーズに応えるリアルタイムアプリケーションを作成できるようにします。APIやLangChainのようなAIオーケストレーションフレームワークを使用して基礎モデルとビジネスデータを組み合わせることで、従来は複雑だったAIを使用した多くのアクションが、アプリケーション自体が関数呼び出すことで処理されるようになりました。
AIのカスタマイズ:AIアライメントに向けた独自データの統合
AIモデルを所有する準備ができた企業にとって、次のステップはモデルアライメントです。モデルアライメントとは、独自のデータを使ってモデルをカスタマイズすることを意味しています。ここで、AIの可能性は一般的なユーティリティから戦略的なビジネスツールへと移行し、モデルを企業の業務コンテキストと密接に整合させます。ただし、個人のデータでモデルをトレーニングおよび微調整することは、データの機密性、リソースの割り当て、継続的なモデルの更新の管理など、技術的な課題をもたらします。
InstructLabの検索拡張生成(RAG)やチャットボット用大規模アライメント(LAB)のようなフレームワークによってカスタマイズが容易になったため、チームは AI を業界固有の知識や独自のデータに整合できるようになっています。InstructLabによって、企業は新しい合成データ生成技術を使用して、基礎的なLLMの上に企業固有の知識やモデル機能を重ねることができるようになります。その結果、AIが質問に回答したり、組織に直接関連するタスクを実行したりできるようになります。
覚えておいてほしいことは、組織のAI導入の道のりにおいて標準的なアプローチは存在しないことです。ただし、AIをより利用しやすくするには、gen AIの活用、採用、カスタマイズという3つの領域を優先させることを忘れないでください。
Red HatのKubeCon NA 2024ニュースについては、Red Hat KubeCon ニュースルームをご覧ください。
執筆者紹介
Cedric Clyburn (@cedricclyburn), Senior Developer Advocate at Red Hat, is an enthusiastic software technologist with a background in Kubernetes, DevOps, and container tools. He has experience speaking and organizing conferences including DevNexus, WeAreDevelopers, The Linux Foundation, KCD NYC, and more. Cedric loves all things open-source, and works to make developer's lives easier! Based out of New York.
Frank La Vigne is a seasoned Data Scientist and the Principal Technical Marketing Manager for AI at Red Hat. He possesses an unwavering passion for harnessing the power of data to address pivotal challenges faced by individuals and organizations.
A trusted voice in the tech community, Frank co-hosts the renowned “Data Driven” podcast, a platform dedicated to exploring the dynamic domains of Data Science and Artificial Intelligence. Beyond his podcasting endeavors, he shares his insights and expertise through FranksWorld.com, a blog that serves as a testament to his dedication to the tech community. Always ahead of the curve, Frank engages with audiences through regular livestreams on LinkedIn, covering cutting-edge technological topics from quantum computing to the burgeoning metaverse.
チャンネル別に見る
自動化
テクノロジー、チームおよび環境に関する IT 自動化の最新情報
AI (人工知能)
お客様が AI ワークロードをどこでも自由に実行することを可能にするプラットフォームについてのアップデート
オープン・ハイブリッドクラウド
ハイブリッドクラウドで柔軟に未来を築く方法をご確認ください。
セキュリティ
環境やテクノロジー全体に及ぶリスクを軽減する方法に関する最新情報
エッジコンピューティング
エッジでの運用を単純化するプラットフォームのアップデート
インフラストラクチャ
世界有数のエンタープライズ向け Linux プラットフォームの最新情報
アプリケーション
アプリケーションの最も困難な課題に対する Red Hat ソリューションの詳細
オリジナル番組
エンタープライズ向けテクノロジーのメーカーやリーダーによるストーリー
製品
ツール
試用、購入、販売
コミュニケーション
Red Hat について
エンタープライズ・オープンソース・ソリューションのプロバイダーとして世界をリードする Red Hat は、Linux、クラウド、コンテナ、Kubernetes などのテクノロジーを提供しています。Red Hat は強化されたソリューションを提供し、コアデータセンターからネットワークエッジまで、企業が複数のプラットフォームおよび環境間で容易に運用できるようにしています。
言語を選択してください
Red Hat legal and privacy links
- Red Hat について
- 採用情報
- イベント
- 各国のオフィス
- Red Hat へのお問い合わせ
- Red Hat ブログ
- ダイバーシティ、エクイティ、およびインクルージョン
- Cool Stuff Store
- Red Hat Summit