OpenVINO ツールキット
AI プログラミング・ウェビナー

2024年7月19日 (金) 13:00~15:00

インテルのウェブサイトではcookieを使用しております。cookieの設定に関しては、お客様自身のブラウザ等の設定を通じて管理が可能です。

インテルの AI エキスパートがオンライン形式で実施する、生成 AI、大規模言語モデル (LLM)、AI PC などを学ぶトレーニングにぜひご参加ください。この AI 開発者向けのウェビナーでは、Jupyter Notebook を使用したコード・チュートリアル・ベースのトレーニングも行います。

【本ウェビナーへの参加メリット】

  • ■ AI 開発の最新動向を知ることができます
  • ■ ご自身のソリューションに適用可能なサンプルコードを使って、実際に実行できます
  • ■ 知識豊富な専門家から開発にまつわる細かいヒントを得ることができます

本ウェビナーは終了いたしました。

免責事項

  • インテルは、OpenVINO ツールキット AI プログラミング・ウェビナー (以後、本ウェビナー) の運営を、株式会社ファイズマン内の「インテル デベロッパーカンファレンス運営事務局」に委託しています。
  • ご登録いただいたメールアドレスに、緊急の連絡事項、またはご登録内容のご確認など、本ウェビナーに関するご連絡をインテル デベロッパーカンファレンス運営事務局 (opens in a new tab) (intel-devcon@event-office.biz) からお送りさせていただく場合がございますので、ご了承ください。

インテルのウェブサイトではcookieを使用しております。cookieの設定に関しては、お客様自身のブラウザ等の設定を通じて管理が可能です。

インテルの AI エキスパートがオンライン形式で実施する本ウェビナーの詳細をご紹介します。

本ウェビナーに参加いただくことで、AI PC に搭載される NPU の活用方法から、実際のアプリケーション開発にすぐ応用できる AI モデルの最適化とエッジデバイスへの実装方法まで 1 日で学ぶことができます。

実施内容

実施内容および講演者は、予告なく変更される場合がございます。
実施時間は目安となります、開始および終了時間については進行状況にて前後する場合がございます。
あらかじめご了承ください。

講師:志村 泰規

インテル株式会社
テクニカルセールス / ソリューション / サービスグループ
エッジソフトウエア ソリューション スペシャリスト


13:00 ~ 13:45 (約 45 分)
OpenVINO ツールキットを使用した生成 AI の基礎

大規模生成 AI モデルが世界を席巻しているのは、皆さんご存知のとおりです。最近ではいくつもの開発を通じて、比較的小規模な生成 AI も同様に性能が高く、アジャイルかつ効率的であり、大規模モデルに比べてリソースの無駄が少ないというメリットがあることが分かっています。

このセッションでは、「大規模言語モデル (LLM) は小型なフォームファクターのマシンにも収まるか?」「小規模 LM と LLM どちらにするべきか?」「推論をローカル実行する場合のスイートスポットはどこか?」といった、生成 AI の領域で見られるようになった新たなチャレンジを取り上げて解説します。また、INT8、INT4、1 ビット LLM モデルなど LLM 圧縮の時代において、複雑なディープラーニング・モデルとビッグデータ処理に GPU、NPU、CPU を効果的に使用する方法を探っていきます。

生成 AI の推論実行における課題を解決するために、OpenVINO ツールキットを使用して AI PC やエッジデバイス上で生成 AI を高速かつ正確に展開する方法も実演します。OpenVINO ツールキットの最新版リリースで今すぐ試すことができる新しい開発手法についても詳しく紹介します。さらに広範な LLM モデルとエキスパート・アーキテクチャーの組み合わせ、モデル圧縮とメモリー最適化の新たな手法、インテルのハードウェア上に実装できるモデルの拡張、OpenVINO モデル・サーバーを使用した AI モデルの展開、新しい生成 AI ワークロードなど、テーマは多岐にわたります。どうぞご期待ください。

生成 AI の未来とロードマップについて、インテルの AI 専門家からの最新情報を交えつつ、実際のデモを通じて高速かつスマートに LLM の推論をローカル実行する手法や、OpenVINO ツールキットを使用して今すぐご自身のマシンで実行する方法を詳しく解説します。


13:55 ~14:20 (約 30 分)
AI PC の新時代: AI を NPU に実装

CPU、GPU、NPU を横断した固有の AI アクセラレーション機能による新時代の AI PC について深く掘り下げます。このセッションでは、AI 推論タスクに NPU を活用し、OpenVINO ツールキットを使用して AI アプリケーションの実装と展開を最適化する方法について包括的に紹介します。AI PC 上で動く AI アプリケーションのパフォーマンスと電力効率を、デモにて紹介します。OpenVINO ツールキットを使用し、AI 推論におけるハードウェア使用率を最適化する方法を習得しましょう。AI プロジェクトの効率化とイノベーションの推進にもつながります。

このセッションでは、以下の内容について説明します。

     
  • AI PC とは? CPU、GPU、NPU を横断する AI アクセラレーション機能
  • 従来型の AI と生成 AI の両方にわたる幅広い AI ユースケースと、AI PC で運用する実際のアプリケーション
  • OpenVINO ツールキットを使用して NPU 上に実装する AI アプリケーションを最適化し、電力効率とパフォーマンスを最大化する方法
  • OpenVINO ツールキットを使用して AI アプリケーションをシームレスに NPU へ移植する方法をデモにて紹介
  • 開発者が AI PC 上で OpenVINO ツールキットを活用し、AI プロジェクトを推進する方法

14:25 ~ 14:55 (約 30 分)
モデルの圧縮と最適化

AI 推論ソリューションのためのコンピューター・ビジョンや異常検出アプリケーションの構築方法を解説します。オープンソースの Anomalib ライブラリーを使用して、不均衡なデータセットによる教師なし学習を実行し、発生頻度の低い欠陥をリアルタイムに検出する、製造業、医療、農業などの分野で品質管理の精度向上に応用できる手法です。

このセッションでは、以下の内容について説明します。

  • 異常検出の分野に適用する OpenVINO ツールキットのコンポーネント、OpenVINO ランタイム、ニューラル・ネットワーク圧縮フレームワーク (NNCF) の基礎
  •  
  • Anomalib 1.0 を使用し、多様な最先端の異常検出アルゴリズムを統合する方法
  •  
  • 量子化や OpenVINO ツールキットなどのテクノロジーを通じて、エッジデバイスに実装する AI モデルの学習処理と最適化を行い、リソース制限のある環境でも効率的なパフォーマンスを確保
  •  
  • モデルの最適化とエッジデバイスへの実装を実践で体験
  • 異常検出の領域で今後この業界が直面することになる課題の紹介

OpenVINO ツールキットとは

OpenVINO ツールキットは、AI 推論を最適化して実装するためのオープンソースのツールキットです。

コンピューター・ビジョン、自動音声認識、自然言語処理、その他の一般的なタスクにおけるディープラーニングのパフォーマンスを向上させます。TensorFlow*、PyTorch* などの一般的なフレームワークで学習されたモデルが使用可能で、エッジからクラウドまで、さまざまなインテルのプラットフォームでリソース使用量を削減し、効率的に実行できます。

OpenVINO ツールキットとは (opens in a new tab)

最新バージョンの OpenVINO ツールキットは、インテルの開発者向けサイトよりダウンロードしていただけます。さらに、Jupyter Notebook、トレーニング拡張機能、モデルなどは、OpenVINO ツールキットの GitHub リポジトリーでご確認ください。

インテルの開発者向けサイト (opens in a new tab)