2024年7月19日 (金) 13:00~15:00
インテルのウェブサイトではcookieを使用しております。cookieの設定に関しては、お客様自身のブラウザ等の設定を通じて管理が可能です。
インテルの AI エキスパートがオンライン形式で実施する、生成 AI、大規模言語モデル (LLM)、AI PC などを学ぶトレーニングにぜひご参加ください。この AI 開発者向けのウェビナーでは、Jupyter Notebook を使用したコード・チュートリアル・ベースのトレーニングも行います。
本ウェビナーは終了いたしました。
インテルのウェブサイトではcookieを使用しております。cookieの設定に関しては、お客様自身のブラウザ等の設定を通じて管理が可能です。
インテルの AI エキスパートがオンライン形式で実施する本ウェビナーの詳細をご紹介します。
本ウェビナーに参加いただくことで、AI PC に搭載される NPU の活用方法から、実際のアプリケーション開発にすぐ応用できる AI モデルの最適化とエッジデバイスへの実装方法まで 1 日で学ぶことができます。
実施内容および講演者は、予告なく変更される場合がございます。
実施時間は目安となります、開始および終了時間については進行状況にて前後する場合がございます。
あらかじめご了承ください。
インテル株式会社
テクニカルセールス / ソリューション / サービスグループ
エッジソフトウエア ソリューション スペシャリスト
大規模生成 AI モデルが世界を席巻しているのは、皆さんご存知のとおりです。最近ではいくつもの開発を通じて、比較的小規模な生成 AI も同様に性能が高く、アジャイルかつ効率的であり、大規模モデルに比べてリソースの無駄が少ないというメリットがあることが分かっています。
このセッションでは、「大規模言語モデル (LLM) は小型なフォームファクターのマシンにも収まるか?」「小規模 LM と LLM どちらにするべきか?」「推論をローカル実行する場合のスイートスポットはどこか?」といった、生成 AI の領域で見られるようになった新たなチャレンジを取り上げて解説します。また、INT8、INT4、1 ビット LLM モデルなど LLM 圧縮の時代において、複雑なディープラーニング・モデルとビッグデータ処理に GPU、NPU、CPU を効果的に使用する方法を探っていきます。
生成 AI の推論実行における課題を解決するために、OpenVINO™ ツールキットを使用して AI PC やエッジデバイス上で生成 AI を高速かつ正確に展開する方法も実演します。OpenVINO™ ツールキットの最新版リリースで今すぐ試すことができる新しい開発手法についても詳しく紹介します。さらに広範な LLM モデルとエキスパート・アーキテクチャーの組み合わせ、モデル圧縮とメモリー最適化の新たな手法、インテルのハードウェア上に実装できるモデルの拡張、OpenVINO™ モデル・サーバーを使用した AI モデルの展開、新しい生成 AI ワークロードなど、テーマは多岐にわたります。どうぞご期待ください。
生成 AI の未来とロードマップについて、インテルの AI 専門家からの最新情報を交えつつ、実際のデモを通じて高速かつスマートに LLM の推論をローカル実行する手法や、OpenVINO™ ツールキットを使用して今すぐご自身のマシンで実行する方法を詳しく解説します。
CPU、GPU、NPU を横断した固有の AI アクセラレーション機能による新時代の AI PC について深く掘り下げます。このセッションでは、AI 推論タスクに NPU を活用し、OpenVINO™ ツールキットを使用して AI アプリケーションの実装と展開を最適化する方法について包括的に紹介します。AI PC 上で動く AI アプリケーションのパフォーマンスと電力効率を、デモにて紹介します。OpenVINO™ ツールキットを使用し、AI 推論におけるハードウェア使用率を最適化する方法を習得しましょう。AI プロジェクトの効率化とイノベーションの推進にもつながります。
このセッションでは、以下の内容について説明します。
AI 推論ソリューションのためのコンピューター・ビジョンや異常検出アプリケーションの構築方法を解説します。オープンソースの Anomalib ライブラリーを使用して、不均衡なデータセットによる教師なし学習を実行し、発生頻度の低い欠陥をリアルタイムに検出する、製造業、医療、農業などの分野で品質管理の精度向上に応用できる手法です。
このセッションでは、以下の内容について説明します。
OpenVINO™ ツールキットは、AI 推論を最適化して実装するためのオープンソースのツールキットです。
コンピューター・ビジョン、自動音声認識、自然言語処理、その他の一般的なタスクにおけるディープラーニングのパフォーマンスを向上させます。TensorFlow*、PyTorch* などの一般的なフレームワークで学習されたモデルが使用可能で、エッジからクラウドまで、さまざまなインテルのプラットフォームでリソース使用量を削減し、効率的に実行できます。
OpenVINO™ ツールキットとは (opens in a new tab)
最新バージョンの OpenVINO™ ツールキットは、インテルの開発者向けサイトよりダウンロードしていただけます。さらに、Jupyter Notebook、トレーニング拡張機能、モデルなどは、OpenVINO™ ツールキットの GitHub リポジトリーでご確認ください。