開催日時

2024年7月17日(水)・18日(木)

会場

マイドームおおさか 8F会議室

プログラム

講演時間に質疑応答5分程度を含みます。講演は5~10分前後することがあります。

7月17日(水)
自動車セッション土木・建築・環境セッション感覚・感性セッション
7月18日(木)
医療・健康セッションネットワークセンシングセッションセンサ実装による自動化、ロボットセッション

========================
7月17日(水)
========================
【自動車セッション】
自動運転を目指したCASE時代の車載センサ

本セッションではCASE時代の新しい車載センサのうちLidar、赤外線イメージセンサ、そして量子センシングによる磁気式電流センサについて専門の講師に動作原理から構成、将来展望に至るまでわかりやすく解説してもらいます。(CASE:Connected、Autonomous/Automated、Shared、Electricの頭文字)

9:45-10:30

自動運転システム/ADAS向け遠赤外線カメラ

コーンズテクノロジー(株)
電子システム部オートモーティブチーム
チームマネージャ 中西 啓朗 氏

先進運転支援システム(ADAS)の車両には様々なセンサが搭載され年々安全性能が向上し、自動運転(AD)の実現に関しても研究開発が進んでいる。
世界トップシェアの赤外線カメラメーカのTeledyne FLIR Systems社の数ある赤外線カメラのラインナップから本日はADAS/AD向けに提案をさせて頂いている遠赤外線カメラ“サーマルカメラ”について、その原理、他のセンサに対しての強み/弱みや動向を説明する。
夜間の歩行者/動物検知だけでなく、雨や霧などの悪天候時、逆光などのハレーション環境での遠赤外線カメラの有効性について撮影画像にてご紹介する。

10:30-11:15

可動部のない“見たいところを見る”自動運転用LiDARの開発

(株)SteraVision 代表取締役社長 上塚 尚登 氏

世界的にドラーバーアシスト(ADAS)用LiDAR、その先の完全自動運転(AD)用LiDARの開発が活発化している。現在のLidarは、そのほとんどがToF(Time of Flight)方式である。
しかし、ToF方式は他の車の混信や逆光に弱いため、事故時はドライバーが責任をもつADAS用までと言われており、最終のAD用にはFMCW (Frequency Modulation Continuous Wave)が本命と言われている。
一方、価格、信頼性の点で、可動部の無いソリッドステートLidarはAD用として必須であり、世界中のメーカーがソリッドステートLidarの実現を目指している。しかし、未だ本命のソリッドステートLidarは実現されていない。
ここではSteraVisionが開発した“見たいところを見る”LiDARソリッドステートLidarについて報告する。

11:15-12:00

手のひらサイズの長距離LiDARと点群処理ミドルウェア

(株)東芝 Nextビジネス開発部 新規事業推進室 フェロー
崔 明秀 氏

世界初、精度99.9%で物体を追跡するLiDAR技術を開発
-高精度な物体の認識・追跡と、猛烈な雨・濃霧環境下で検知距離2倍以上、計測範囲の柔軟性の向上を実現し、空間のデジタルツインの構築であらゆる産業の効率化に貢献-

●開発のポイント
 ・世界最高精度の99.9%で、車両や人といった物体を追跡
 ・LiDARの取得データのみで、世界最高精度の98.9%で物体を認識
 ・雨・霧を除去するアルゴリズムの開発により、猛烈な雨や濃霧環境下での検知距離を2倍以上改善
 ・計測範囲可変技術を開発し、従来技術に比べ計測距離を350mまで伸長、6倍の広画角化を実現


【土木・建築・環境セッション】
土木・建築・環境セッション

12:45-13:30

インフラ・建物のOpenBIMセンシング・プラットフォーム

大阪大学 大学院工学研究科 環境エネルギー工学専攻 教授 矢吹 信喜 氏

土木建築分野では生産性向上を図るためにDX、とりわけデジタルツインの構築に取り組む企業が多いが、データプラットフォームがサイロ型になりがちなのが課題である。
インフラや建物の3次元モデルやセンシングデータなどのリアリティ・キャプチャを、機器やソフトに依存しない、汎用性、拡張性、可搬性が高いものにするためには、OpenBIMの概念とツールを駆使する必要がある。
インフラのBIM/CIMや建築BIM等により作成される3次元モデルをセンサおよびセンシングデータと統合化することにより、設計と施工だけでなく、維持管理、ZEB改修、災害復旧等にも役立たせる技術開発について講演する。

13:30-14:15

鉄筋コンクリート構造物にとって水は諸悪の根源 ― コンクリート中の含水率を測るセンサ技術

日本大学 生産工学部 建築工学科 教授 湯浅 昇 氏

建築界も土木界もコンクリート中の「水分」に注目が集まっている。コンクリート中の水分は、コンクリートの水和・硬化の過程で必要なものである反面、あらゆるコンクリート構造物の劣化にとって、“諸悪の根源”であり、「水」さえなければ劣化しないからである。
「水さえなければ、水さえ制御できれば」いいことに、重大な関心を持つようになったといえる。そしてその関心は、“コンクリート中の水を測る”ことに注がれている。
本講演では、コンクリートの含水率の定義、測定の目的、既存の試験方法の原理と特徴、これからの含水率測定技術の展開・期待について解説する。

14:15-15:00

LiDARによる二酸化炭素濃度分布計測

東京都立大学 システムデザイン学部 教授
阿保 真 氏

二酸化炭素(CO2)は気候システムに対して最大の放射強制力を持つため、その発生源と吸収源の空間分布と時間変化を正確に把握することが、地球温暖化予測の精度向上と効果的な温暖化対策に不可欠である。
ライダー (LiDAR)は、パルスレーザ光を大気に照射し散乱光を計測することで、大気中に浮遊するエアロゾルや雲の空間分布情報を高い精度で取得することができる。
さらにライダーと吸収分光法を組み合わせた差分吸収ライダーは、大気中の特定分子の濃度分布を高分解能で観測することが可能である。
本講演では、差分吸収ライダーによるCO2濃度分布の計測方法を紹介し、我々の研究チームが開発したライダーシステムの観測結果について紹介する。


【感覚・感性セッション】
ヒトの感覚、感性のセンシングとその応用

人の知覚や感性・こころの理解は、人が関わるセンサ・システムやメンタルヘルス評価等のために非常に重要です。 本セッションでは、ヒトの触知覚、脳と感情に関する最先端の研究と、人が心地よいと感じる室内環境創出への応用例について紹介します。

15:15-16:00

触感とは何か?測る前に知って欲しいヒトの触知覚原理

東京都立大学 情報科学域 教授
岡本 正吾 氏

工業試験機による計測では「触り心地」はなかなか評価できません。ヒトに備わった触知覚機能は、物理的・機械的な量を計測することはできないし、それをする必要もないからです。
私たちはまず、ヒトの触知覚方法を知らねばなりません。ヒトに備わった皮膚・受容器・認知機構がどのように機能しているかを解説します。
触感の評価時に注意すべき、指の個人差にも言及しながら、テクスチャ(粗さ・摩擦)と硬軟の知覚メカニズムについて特に解説をいたします。

16:00-16:45

脳波・自律神経系活動とエクソソームの計測に基づいた統合的な「こころ」の定量化

東北大学 大学院生命科学研究科 教授 筒井 健一郎 氏

筒井が代表をつとめるムーンショット目標9のプロジェクト「多様なこころを脳と身体性機能に基づいてつなぐ「自在ホンヤク機」の開発」では、主に脳・生命科学の技術にもとづいたこころの計測技術と、バーチャルリアリティやロボット工学に基づいたこころの介入技術を融合して、社会のさまざまな場面で人々のコミュニケーションを支援するための技術・製品を研究開発することを目標としている。
この講演では、その技術的基盤の2本柱の一つである、脳・生命科学の技術にもとづいたこころの計測技術について紹介する。
脳神経系からのこころの状態の読み取り技術としては、脳波などの電気生理学的測定が再び脚光を浴びている。電気生理学的測定は、大きな施設が必要な機能的MRI等に比べて、軽装備かつ経済的で、広い社会実装に適している。これまで、覚醒や緊張の度合いをある程度読み取ることが可能になっているが、本プロジェクトでは、計測データの数理的解析法を作り込むことにより、リアルタイムにさまざまな感情を読み取ることを目指している。
電気生理学よりもより長期的な、数日から数週間の時間のスパンでこころの状態を読み取る対象として、エクソソームに注目している。エクソソームとは、体内のあらゆる臓器の細胞から放出される小胞で、内部には、由来細胞のマイクロRNAやタンパク質などを含んでいる。したがって、このエクソソームに含まれるマイクロRNAやタンパク質を解析することにより、身体の様々な臓器の状態に反映されるこころの状態が読み取ることが出来ると期待されている。 本プロジェクトではまず、ストレスの度合いが血中のエクソソームに反映されることを明らかにしている。将来的には、中長期的な心身の充実度や、性格傾向などを読み取ることを目指している。

16:45-17:30

IAQ(Indoor Air Quality)の重要性と各種指標の計測センサ技術の可能性

シー・エイチ・シー・システム(株) 代表取締役
渋谷 俊彦 氏

室内の空気の状態・品質を室内空気質(IAQ)と言い、構成要素ごとに定量的な指標・管理基準が定められている。例えば、室内のCO2濃度によって、空気の汚染の度合いと換気効率を定量的に把握することが可能となる。
「換気の見える化」を行い、換気設備を自動制御することで、IAQを適正レベルに保つとともに、エアコンに要する電気料金の削減も可能となる。
本講演では、在室者の健康面や生産性だけでなく、省エネルギー(CO2排出量削減)の観点からも、IAQが果たす役割の大きさについて、具体的な事例を交えて紹介する。
同時に、各種指標の計測センサ技術を用いた共同研究などの取り組みを紹介しつつ、今後の新たな活用の可能性についても述べる。


========================
7月18日(木)
========================
【医療・健康セッション】
幹細胞/がん細胞分析イメージング・健康医療データの流通など最新トピックス

細胞分析技術は日々進歩ししており、最先端医療に直結しています。 今回は、肝細胞・がん細胞を科学するラマンイメージング・3次元像フローサイトメータの最新トピックスを講演ただくとともに、ますます重要となってきた健康医療データの流通基盤について解説いただきます。

9:45-10:30

ラマンイメージングを活用した肝細胞品質評価技術

(独法)産業技術総合研究所
先端フォトニクス・バイオセンシングOIL 副ラボ長<
藤田 聡史 氏

物質に光を照射した際に観察される散乱光の中に、照射した光と異なる波長の微弱な散乱光が観察されることが知られ、この現象をラマン散乱と呼ぶ。
対象分子の振動エネルギーに依存した波長シフトが、散乱光のスペクトルから検出できるため、対象物の分子組成を無標識で検出することが可能である。これを拡張したラマンイメージングは、ラマンスペクトルの検出を2次元平面上で行い、イメージ像とし出力する手法であり、医薬品、食品、化粧品の評価や診断技術、再生医療への応用が期待されている。
本講演では、ラマンイメージング技術の一応用例として、肝細胞の品質評価技術を中心に紹介する。本品質評価では、評価指標として薬物代謝酵素(CYP)の活性の検出に成功した。加えて、他の品質評価事例についても紹介したい。
(※本成果は、大阪大学の藤田克昌先生らが開発した高速ラマン顕微鏡を用いた共同研究の成果である。)

10:30-11:15

ラベルフリー3次元像フローサイトメータで血中がん細胞を診る

浜松ホトニクス(株) 中央研究所 第7研究室 副研究室長
山田 秀直 氏

当社では、学術・工業分野に限らず、バイオ・医用分野における「光の可能性」を追究しています。特に医用分野における「診る」という行為に「光」は欠かせません。
細胞を1つ1つ「診る」検査装置フローサイトメータは、イメージング技術とAI技術との融合で次世代フローサイトメータとして注目を浴びています。立体構造を持つ細胞を生きたまま診るラベルフリー3次元像フローサイトメータのコア技術を紹介すると共に、その応用例として血中がん細胞の検出技術について紹介します。

11:15-12:00

健康医療データ流通基盤 ~IoTデバイスからのTrustデータ流通~

大阪大学大学院 情報科学研究科 スマートコントラクト活用共同研究講座 特任教授 山田 憲嗣 氏

本講演では、「健康医療データ流通基盤~IoTデバイスからのTrustデータ流通~」についてご紹介いたします。IoTデバイスから収集されるデータをWeb3技術、特にNFTとスマートコントラクトを活用して、安全かつ効率的に流通させるための基盤について説明します。
このシステムにより、複数の医療機関や研究機関が即時にデータを収集し、分散管理することが可能となります。さらに、データ提供者(患者、医療機関、医師など)に対する利益還元の仕組みを実現し、データの質と信頼性を向上させます。
本講演では、具体的な技術実装例や特許技術についても詳述し、IoTセンサーデバイスが医療・健康分野においてどのように革新をもたらすかを探ります。


【ネットワークセンシングセッション】
エッジAIを組み込んだセンシング技術が、情報化時代・ネットワーク時代を牽引する!

情報化時代・ネットワーク時代は、センサに情報技術を取り込んだIoTセンサ、さらにはセンサにAIを組み込んだエッジAIセンサがセンサ市場を牽引します。 センサにエッジAIを組み込むために必要な半導体技術開発の取組み、エッジAIを実装したセンシング技術およびセンサデバイス開発の最前線を紹介します。

12:45-13:30

IoT時代のエッジAIアクセラレータ

東京大学 工学系研究科電気系工学専攻 教授
竹内 健 氏

エッジAIに向けたAIアクセラレータ・LSIを紹介する。データを取得したエッジでAI処理をすること。全てのデータをセンタに送る必要がない事から高速・低電力、およびプライバシーの確保が期待される。
その一方、エッジのリソースが限られた環境で重いAI処理を行うことは汎用のCPUでは難しく、専用のAIアクセラレータによる低電力化・高速化・低コスト化が期待されている。
本講演ではAIのエッジ処理に向けた、AIアクセラレータLSI、その中でも特にCiM(Computation-in-Memory)チップを紹介する。

13:30-14:15

IoT時代のエッジAIの将来動向とパナソニックの取組み

パナソニックホールディングス(株)
プロダクト解析センター 安全・EMCソリューション部
システム安全設計課 課長
岡本 球夫 氏

近年、AIはChatGPTに代表される技術的進化により、社会での活用が大きく進んでいる。その一つの潮流として、AIのエッジ化があり、センサデバイスにAIが組み合わさることによるIoT機器の知能化が社会に大きな変化をもたらすものと考える。
パナソニックでは、推論だけでなく、学習もエッジ側で行うオンデバイス学習AIによる予兆検知技術の開発に取り組んでおり、本講演では、その開発の現状と、新しいAI技術によって目指そうとしている未来の世界像について紹介を行う。

14:15-15:00

現場で学習できる超小型エッジAIチップの開発と応用

ローム(株) LSI事業本部 アソシエイトフェロー
西山 高浩 氏

AIの普及は、クラウドからエッジ、そして組み込みデバイスへと急速に進んでいます。
特に、組み込みAIシステムは近年注目を集めており、装置の異常予兆検知など様々な応用が期待されています。しかし、この分野には数多くの課題が存在します。
オンデバイス学習という最新技術を用いることでこれらの課題を効果的に解決できます。
我々は、そのアルゴリズムをハードウェアで実現するAIアクセラレータの開発に成功し、超小型AIチップに内蔵しました。そのチップを用いてどのようなことができるようになるのかご紹介します。


【センサ実装による自動化、ロボットセッション】
センサ実装による自動化、ロボットセッション

15:15-16:00

ミリ波センサによる生体信号・振動の非接触センシング技術

京セラ(株) 研究開発本部 先進技術研究所 主席技師
黒田 淳 氏

ミリ波センサ(ミリ波レーダー)は、運転支援(ADAS)技術を支えるセンサとして、様々な物体の距離測定、速度測定に用いられている。
ミリ波センサは、ミリ波のドップラー現象による位相シフトを解析することにより、物体の剛体的移動速度を検知することが可能であるが、それを拡張して、高度な信号処理を適用することにより、様々な微細振動を検知することも可能である。
本講では、ミリ波センサによる、物体の機械的微細振動の測定技術、および人体に関する生体信号(心拍および呼吸、体動)の検出に関する、基礎的技術の解説、今後の展望について概説するものである。

16:00-16:45

ゆらぎ発振器のシンクロ機能が拓くノイズに埋もれた微弱脳波・心拍信号センシング

大阪大学 産業科学研究所 准教授
神吉 輝夫 氏

「ゆらぎ発振器」の研究開発は、自然調和・人親和性の高いエレクトロニクス技術を追求する目的で2006年にスタートし、2021年にはそれを核としたベンチャー企業*が設立されました。
この技術は、生体に似たシンクロ機能を持っていることを特徴としています。
生体システムの根本的な情報処理機構は、脳波、心拍、歩行、体内時計(サーカディアンリズム)といった様々なリズムの絡み合いが一因となり生み出されています。
この背景から本講演では、「ゆらぎ」「リズム」神経振動子を簡素化し真似た「ゆらぎ発振器」のシンクロ機能により、ノイズの中でも微弱な脳波や心拍を検出した成功例を紹介します。

*株式会社ヒューステック( https://hustech.co.jp/ )

16:45-17:30

振動スペクトルカメラとその応用

広島大学 大学院先進理工系科学研究科 教授
石井 抱 氏

人間の視覚は聴覚や触覚に比べて時間分解能が低く、人間の目に合わせて設計された数十コマ/秒で動作するビデオカメラによる視覚情報処理では、数百Hz~数kHz といった可聴域に対応した高速な動きを捉えることができません。
これらの問題に対し、人間の目に比べて数十倍以上の高フレームレートで画像撮像・認識を実現する高速ビジョンは、音声周波数レベルで動作するスマートフォトニックセンサの集合といえ、人間が感じとれないダイナミックな現象を面で捉える革新的なソフトウェアセンサとして期待されています。
本講演では、このような人間の目に見えない振動を可視化する「振動見える化」カメラとして、輝度や変位・速度等の時系列信号に対する周波数応答を並列計算し、振動スペクトル画像をリアルタイム可視化する振動スペクトルカメラの開発、さらには1km先で飛翔するドローン検知をはじめとした様々な応用事例について紹介します。


参加料・申込方法ほか

参加料 ●主催・特別協賛団体会員:16,000円
●後援・協賛団体会員:22,000円
●一 般:30,000円
いずれも税込
該当団体名を備考欄にご記入ください。
団体一覧はこちら
【個別セッション申込み】
個別で聴講をご希望の方はこちら からお申込みください。
申込方法 下部にあります、お申込みフォームよりお申込み下さい。
受付が完了しましたら下記件名の自動返信メールが届きます。メール内の決済用アドレスより決済を完了させてください。

件名: お申込み確認メール「使えるセンサ・シンポジウム2024」【オプトロニクス社】

決済が済みましたら、下記件名のメールが届きます。

件名:【ZEUS】決済完了メール(自動配信)
件名: 使えるセンサ・シンポジウム2024 料金お支払い確認メール【オプトロニクス社】
支払方法 自動返信メールに決済用URLを記載しております。お支払いは7月10日(水)までにお願いいたします。

領収書発行 クレジットカードご決済後、料金お支払い確認メール内に、領収書のURLが記載されていますのでご使用ください。
領収書は「株式会社オプトロニクス社」から発行されます。
領収書の宛名は申込フォームの「会社名・団体名」がそのまま反映されます。
申込締切 7月10日(水)
キャンセル規定 お客様のご都合による受講解約の場合は下記のとおり解約金として申し受けます。
7月10日(水)までは受講料の50%、7月11日(木)以降につきましては受講料の全額
お問合せ (株)オプトロニクス社 使えるセンサ・シンポジウム担当
Tel:(03)3269-3550 E-mail:seminar@optronics.co.jp


使えるセンサ・シンポジウム2024 お申込フォーム