[フレーム]
BT

最新技術を追い求めるデベロッパのための情報コミュニティ

寄稿

InfoQのすべての体験をアンロックして、そのメリットを最大限に活用しましょう

ログインして、InfoQのすべての体験をアンロックしましょう!お気に入りの著者やトピックの最新情報を入手し、コンテンツと交流し、限定リソースをダウンロードできます。

ログイン
または

アカウントをお持ちでない方

登録
  • あなたにとって重要なトピックや同僚の最新情報を入手しましょう最新の洞察とトレンドに関する最新情報を即座に受け取りましょう。
  • 継続的な学習のために、無料のリソースに手軽にアクセスしましょうミニブック、トランスクリプト付き動画、およびトレーニング教材。
  • 記事を保存して、いつでも読むことができます記事をブックマークして、準備ができたらいつでも読めます。

Topics

地域を選ぶ

InfoQ ホームページ ニュース "Confluent Cloud for Apache Flink"、AI機能とともに一般提供開始

"Confluent Cloud for Apache Flink"、AI機能とともに一般提供開始

2024年5月31日 読了時間 4 分

原文リンク(2024年05月05日)

Confluent社は先月、"Confluent Cloud for Apache Flink"の一般提供を発表した。このフルマネージドサービスは、リアルタイムデータ処理と高品質で再利用可能なデータストリームの作成を可能にする。このサービスはAmazon Web Services(AWS)、Google Cloud、マイクロソフト Azureで利用できる。

Apache Flinkは、Airbnb、Uber、LinkedIn、Netflixなどの企業で採用されている、信頼性が高く広く使われているストリーム処理フレームワークだ。同社によると、2023年には100万回近くダウンロードされたことから、その人気は明らかだ。Confluentは、Apache Flinkのクラウドオファリングを構築し、ユーザーが運用を気にすることなくビジネスロジックに集中できるようにすることを決定した。昨年のオープンプレビューを経て、一般提供が利用可能になった。

Confluentは、FlinkとANSI SQL標準との統合を容易にし、リアルタイムのデータ探索とアプリケーション開発を簡素化する。開発者は、Confluent の CLI(SQL Shell) とSQL Workspaces を使って、Flink SQL クエリを素早く書いて実行でき、自動補完や効率的なワークフロー管理のためのグラフィカル・インターフェイスなどの機能も備えている。

Confluent Cloud CLI の SQL クライアント(出典:Confluentブログポスト)

更に、ConfluentのData Portalと最近導入されたFlink Actionsは、セルフサービスのデータ探索とビルド済みのストリーム処理変換を提供し、ユーザーは深い専門知識がなくてもFlinkのパワーを簡単に活用できる。

フルマネージドFlinkサービスは、エラスティックな自動スケーリング、自動アップデート、利用ベースの課金などの機能を備えたサーバーレスサービスである。同サービスは、効率的なリソース利用と高い信頼性を保証する。

Confluent社は、次のように述べている。

Confluent Cloud for Apache Flinkでは、自動アップデートにより、古いソフトウェアや脆弱性に起因するダウンタイムやデータ損失のリスクを低減できます。さらに、当社のオートスケーラは効率的なリソース割り当てを保証し、ピーク使用期間中のパフォーマンスボトルネック、スロットリング、障害のリスクを低減します。

更に、Kafkaとの統合、メタデータ管理とセキュリティの強化により、オペレーションをさらに合理化し、データの完全性を確保する。

Confluentはまた、AIとMLアプリケーション開発を加速させるために、データクリーニングと処理タスクを合理化するように設計されたAIモデル推論を、Apache Flinkサービス向けの新機能として予定している。この機能により、組織は使い慣れたSQL構文を利用してAI/MLモデルと直接対話でき、専門的なツールや言語の必要性を最小限に抑えることで、AI開発を簡素化できる。

Confluent社は、直近のブログ記事で次のように述べている。

Confluent Cloud for Apache FlinkのAIモデル推論により、組織はシンプルなSQLステートメントを使用して、OpenAI、AWS Sagemaker、GCP Vertex、Azureなどのリモートモデルエンドポイントを呼び出し、単一のプラットフォーム上でデータクリーニングと処理タスクをオーケストレーションできます。

Confluent社の製品管理ディレクターであるJean-Sébastien Brunner氏は、InfoQに対し、今後のAIモデル推論機能について語った。

ユーザーはFlink SQLでAI/MLモデルを直接定義でき、OpenAIのようなLLMを呼び出すためのカスタムコードやユーザー定義関数が不要になります。このアプローチにより、ユーザーは使い慣れたSQL構文を使ってモデルを呼び出し、異なるアプリケーション間でのシームレスな再利用が容易になり、データやAI/MLタスクのために言語やツールを切り替える必要がなくなります。

さらに同氏は、組織がこの機能を実際にどのように活用できるかを付け加えた。

データ・エンジニアは、顧客のインタラクションや商品データを取り込み、パーソナライズされたeコマース・レコメンデーションのためのデータ・パイプラインを構築できます。リアルタイムのインタラクションは推論のためにLLMモデルに供給され、ユーザーの行動に基づいてパーソナライズされたレコメンデーションが生成されます。これらすべては、コンテキストを切り替え、外部のチームに頼ることなく、SQLでシームレスに管理されます。

最後に、Confluent社はフレキシブルなレイテンシ要件を持つ高スループットのユースケース向けに、Freight Clustersと呼ばれる新しい自動スケーリングクラスターをサービスに追加する。これにより、手動で介入することなく、需要に応じてリソースをシームレスに調整することで、コスト効率を高めることができる。

作者について

Steef-Jan Wiggers

もっと見るより少なく

この記事に星をつける

おすすめ度
スタイル
  • 関連記事

    • 関連スポンサーコンテンツ

特集コンテンツ一覧

InfoQ ニュースレター

毎週火曜日に前週のまとめコンテンツをお送りいたします。(日本語版は不定期リリース)25万人のシニアな開発者コミュニティーにぜひご参加ください。 サンプルを見る

We protect your privacy.

BT

AltStyle によって変換されたページ (->オリジナル) /