ナレッジブログ

Report

Databricks Agent BricksやLakeflowで何が変わる?Data + AI World Tour Tokyo で見えた次世代のデータ基盤

2026.1.15

挨拶

アゼストのデータエンジニアチームに所属している島立と成川です。

11/28にザ・プリンス パークタワー東京で開催されたDataBricks主催のData + AI World Tour Tokyoに参加してきましたので、そのレポートを掲載させていただきます。

イベント参加

最寄り駅の芝公園駅で待ち合わせをして、いざ会場へ。東京タワー近くのいい雰囲気のホテルですね。

ザ・プリンス パークタワー東京

ザ・プリンス パークタワー東京

イベント会場はこんな感じ。早速受付でパスをもらいました。

入り口付近の特大掲示

入り口付近の特大掲示

エンブレムで記念撮影しました。SUPER EXCITEDです!( ´∀` )

記念撮影

セッション内容

各セッション会場はこんな感じです。テーブルがありPCでメモ取ることができました!助かります。

セッション会場

セッション会場

~成川参加レポート~

Agent Bricks で構築する本番品質の AI/マルチエージェントシステム

AIエージェント開発を「検証レベル」から「本番品質」へ引き上げる際の課題に対し、Agent Bricksがどのように解決策を提示するかを解説するセッションでした。
特に以下の3つの大きな課題が提示されました。

  • 評価の難しさ: 具体的な改善点を特定・提示することの困難さ。
  • パラメータ調整の煩雑さ: モデル選定、ファインチューニングの要否、エージェントの数・役割分担、予算や人的リソースの配分など、変数が多岐にわたり複雑化する点。
  • コストとのトレードオフ: 高性能モデルによるコスト増と、軽量モデルによる精度低下のジレンマ。

【気づき・考察】

デモで紹介された「採用サポートエージェント」が非常に実用的でした。社内ナレッジに対して自然言語でAIに質問し、さらにAIの回答に対して人間が直接フィードバックを行える仕組みは、精度の向上と運用の透明性を確保する上で極めて強力だと感じます。
「開発の容易さ」を維持しつつ、これまで困難だった「品質管理(評価)」を仕組み化できる点に、Agent Bricksの大きな優位性を実感しました。

Lakeflow のご紹介:Databricks でデータエンジニアリングの未来へ

Databricksが提供する「Lakeflow」の機能詳細と今後の展望についてのセッションでした。
データの取り込み(Ingestion)、変換(Transformation)、オーケストレーションを単一プラットフォームで統合し、データエンジニアリングの複雑性を解消するビジョンが提示されました。

【気づき・考察】

これまで複数のツールを組み合わせて構築・維持していた煩雑なパイプラインが、Lakeflowによって大幅に簡素化される可能性を強く感じました。
特に新機能の「Lakeflow Designer」は、直感的なUIで視覚的にデータフローを構築できる点が非常に優れており、開発効率を劇的に向上させる期待が持てます。

技術者向け:データブリックス入門

Databricksの基本操作から主要機能までを網羅した入門セッションです。
会場は立ち見が出るほどの超満員で、データ活用に対する市場の関心度と技術者の熱量を肌で感じる場となりました。

【気づき・考察】

隅の方での受講となりましたが、Databricksの根幹である「レイクハウス・アーキテクチャ」の全体像を改めて整理できました。
個別の機能だけでなく、データブリックスとしての基本的な動きを体系的に確認できたことで、今後のプラットフォーム活用の土台を固めることができました。

~島立参加レポート~

EXPO(展示エリア)

EXPOエリアでは、データ基盤・分析・AI活用に関するさまざまな企業・プロダクトの展示が行われていました。
その中でも特に印象に残ったのが dbt の展示です。

【気づき・考察】

dbtは「SQLを中心に、データ変換の品質と説明責任を高める」という思想が一貫しており、データエンジニアが日々感じている課題に真正面から向き合ったツールだと感じました。

  • SQLで変換ロジックを定義し、テストしながら開発できる
  • モデルやカラムにドキュメントを残し、データの意味を共有できる
  • Gitベースでバージョン管理でき、変更履歴が追いやすい
  • テスト・ドキュメント・リネージが最初から組み込まれている

「なぜこの数字が出ているのか?」「どこでどのように加工されたデータなのか?」こうした問いに後からきちんと説明できるデータ基盤を作るという思想が明確で、実務目線で非常に魅力的でした。

Unity Catalog: 基礎からベストプラクティスまでを解説

本セッションでは、Databricks における Unity Catalog を中心に、データとAIをいかに安全かつ効率的に管理するかについて解説されました。

【気づき・考察】

特に印象に残ったのは、テーブルやカラムに付与するコメント(メタデータ)の重要性です。Unity Catalogでは、コメントは単なる「人向けの説明」ではなく、AIがデータを理解し、正しく判断・動作するためのコンテキストとして活用されることが強調されていました。

これまで人が読むために書いていたコメントが、これからはAIに正しく理解させるための重要な情報へと役割が変わっていく、という視点は非常に示唆的でした。

Keynote: Data + AI World Tour 基調講演

基調講演は本イベントのメイン会場で行われました。天井にシャンデリアがあって豪華な感じがします。

Keynoteセッション会場

Keynoteセッション会場

特に印象に残ったのがコスモエネルギーホールディングスによるDXの取り組み紹介でした。
単なるツール導入ではなく、経営・PMO・DX部門・現場が一体となって変革を進めていく姿勢が強調されていました。

🔥 コスモ石油が目指す「Cosmological Evolution」

推進するために重要な役割として、以下の4つのプレーヤーが紹介されていました。

  • ■ 経営陣: ビジョンの明確化と強力なコミットメント
  • ■ 現場(Change Agent): DXを“他人ごと”にせず、現場が自ら動き出す状態を作ること。
  • ■ PMO: 経営と現場をつなぐ橋渡し役。
  • ■ DX / IT: 現場に伴走しながら支える専門家としての役割。

余談ですが、成川は基調講演の参加者抽選でTシャツを当選 🎉
イベントならではの楽しさもあり、満足度の高い一日となりました。

最後に

最後に、出展メンバーと一緒に打ち上げに行きました🍺
浜松町の羽根付き餃子は絶品でした!また機会があれば参加したいと思います。

打ち上げの餃子

Contact

クラウド・開発・データサイエンスのことならアゼストまで

案件のご相談など、お気軽にお問合せください。