LibSVMはOpenMP化して使いましょう


LIBSVMというSVM(Support Vector Machine)のライブラリがある.
SVMで学習したり認識したりするときは特徴ベクトルとサポートベクトルの演算があり,結構時間がかかる.

FAQを見ると,OpenMPで並列化させる方法が載っている.
OpenMPで並列化をすれば,CPUのコアを複数使って効率よく学習や認識ができるのでおすすめ.

これを見て知りました.
LIBSVMをマルチコア環境で速くする方法 using OpenMP+おまけ

Metafile to EPS Converter


これまで論文に図を乗せるときは,PowerPointで作ってwmf2epsを使って変換していた.
wmf2epsの詳細についてはこちらのページが参考になる.

これを入れると,PowerPointで作った図をコピー&ペーストするだけでemfかwmfファイルが作れ,そこからボタンひとつでepsに変換できる.

が,Windows 8にしてから使えなくなった.ドライバがWindows 7までのようで.

そこで途方に暮れていたが,先日Metafile to EPS Converterというものを見つけた.

これも同じぐらい簡単で,ほぼコピー&ペーストでepsファイルが作れる.

PRMU研究会@早稲田大学2日目


今日も朝から参加.宿から副都心線で2駅だったが,信号機トラブルのせいでダイヤが乱れていた.早めに出ていたので遅刻はせずに無事到着.

今日も各セッション平均1回以上は質問して頑張った.

特別講演は博物館等の情報検索に関する話で,連想検索など興味深い内容だった.

今日も最後のセッションで座長だった.最後のセッションは人が少ないので心配だったが,自分からも質問が沢山出せる内容で,フロアからも沢山質問が出たので問題なくこなせた.

ただ,時間きてるのに補足コメントを座長がしてしまい,4,5分オーバーしてしまった.

背景差分の本が出るようだ


フランスUniversité de La RochelleのThierry BOUWMANS先生が背景差分の本を出版される.

Handbook on "Background Modeling and Foreground Detection for Video Surveillance"

Thierry BOUWMANS先生は背景差分のサーベイ論文を執筆されていて,僕の研究も引用されていたりする.

この本は5部構成で,

  1. イントロと背景(←この「背景」は研究の背景であって「背景」差分の背景ではないと思う)
  2. 従来と最新の背景モデル
  3. サーベイランスにおけるアプリケーション
  4. センサ,ハードウェアと実装
  5. ベンチマークと評価

となっている.

普通の背景差分法から,最新の統計的手法,GPU実装,距離情報を含むRGB-Dカメラ,背景差分ライブラリであるBGSLibraryの紹介,評価用データセットまで載っていて,これを読めばざっと背景差分に関する知識が得られそう.

論文を読むのに使ってるツール(モバイル編)


論文などPDFファイルを読むことが多いが,その時に使うのが,ezPDF Reader

PDFの表示,注釈入れ,線引きなどひと通りできる.

特に便利なのが,ColorDictとの連携.ezPDF Reader内でPDF文書中の単語を選択してColorDictをタップすると,半透明の画面が出てきてColorDictで辞書をひいた結果が出てくる.

有料アプリだけどそんなに高くないから支払って使うべき!

多カメラ間人物追跡用データセット


昨日から参加している20th Korea-Japan Joint Workshop on Frontiers of Computer Vision で発表してきた.

今回発表したのは,多カメラに渡る人物追跡用のデータセットの公開について.詳細はこちらにあるが,16カメラで24人を追跡したデータセットになっている.

16カメラは実際の商用の防犯カメラ映像で,AXIS Communications社製のAXIS 211P-1344-Eを使って撮影したもので,すべて手動でアノテーションをつけている.

使う場合はこちらのページから契約書をダウンロードし,サインしてメールで送付していただければ研究用途に限り誰でも利用可能になっている.

沖縄出張


FCV2014ONCTに参加するために,沖縄に来ています.

FCV(Frontier in Computer Vision)は日韓の画像処理研究者が20年間続けている国際ワークショップ.今回は20回目の記念の会.

今日は京都からONCT(国立沖縄工業高等専門学校)への移動と,午後からのワークショップ.飛行機2時間で沖縄だが,そこから更にバスで1時間半ほどかかった.オスプレイで有名(?)な普天間基地や,嘉手納基地の横を通り,米軍の練習場を越えてようやく到着.

会議自体は1件の特別講演と2セッション,そしてバンケット.明日は自分の発表がある.

PRMU/MVE/CVIM/SIG-MR


パターン認識・理解研究会、仮想環境基礎研究会、コンピュータビジョンとイメージメディア研究会、複合現実感研究会の合同研究会@大阪大学に行ってきた。

毎年1月の研究会は4研究会合同の大規模な研究会が開かれる。参加者・発表者が多いと、面白い研究も多いし、議論も盛り上がる。さらに、普段参加しない学会の研究も聴けて楽しい。

ところで、今日は昨日に引き続き、天津中華丼を食べた。これは、天津飯の上に中華丼の具(八宝菜?)が乗っているやつ。

パワポでポスター作り


学会ではポスター発表というのがあり,A0サイズの紙に発表内容を印刷して説明をすることがある.

そのポスター作り,Illustratorを使う人が多いかもしれないが,PowerPointもまぁまぁ使える.(ちなみに普段はPowerPointかInkscapeを使っている.InkscapeはPhotoshopに対するGimpの,Illustrator版みたいな感じ.)なぜかというと,PowerPointは普段のプレゼンでよく使うので,操作に慣れているから,というのが主な理由.

PowerPointでは普通は16:9のワイドスクリーンの表示に適したサイズのスライドが用意されている.ポスター発表ではこうしたサイズではダメなので,まず用紙をポスターサイズに設定する.

設定の仕方は,上のリボンから,「デザイン」→「ユーザー設定」→「スライドのサイズ」.普通はここで,「標準(4:3)」か「ワイド画面(16:9)」を選択するが,今回は「ユーザー設定のスライドのサイズ」を選ぶ.

「スライドのサイズ」というウインドウが出てくるので,スライドのサイズ指定で「ユーザー設定」を選択し,幅84.1cm,高さ 118.9cmを入力してOKを押す.

これで,A0のポスターのサイズの巨大なスライドが作れる.あとは拡大率を適当に調整しながら,普段のプレゼンスライドを作る要領でシェイプや画像や文字列を置いていく.普通のプレゼン同様,デザインを作っておくと,同じデザインのポスターを作りやすい.

注意しないといけないのが文字サイズ.英語だとだいたい44ptぐらいが最小限かなと思う.タイトルには86ptを使っている.

告知!あいあいネット


オフィシャルなアナウンスがあったのでコピペしておきます.

-----

プライバシ保護技術の研究公開イベント

第3回「体感しよう!あいあいネット」開催のお知らせ

センシングWebプロジェクト(研究代表者:京都大学 学術情報メディアセンター教授 美濃導彦; http://www.mm.media.kyoto-u.ac.jp/sweb/ )では,2007年度から2009年度にかけて,科学技術振興調整費の助成を受け,「センサ情報の社会利用のためのコンテンツ化」の研究プロジェクトを推進してきました.プロジェクトでは,プライバシを保護しながらセンサ情報をネットワークへ公開し,誰もが自由に利用できる仕組みを実現することを目指しています.

最終年度にあたる 2009年度は,プロジェクトで開発した技術を公共環境に適用し,評価する実証実験を7月から12月まで,新風館(京都市 中京区)において実施しています.

この実証実験の様子を,一般の方にも分かりやすく紹介するイベント

第3回「体感しよう!あいあいネット」

http://www.mm.media.kyoto-u.ac.jp/sweb/eye-i-net/

を11月15日(日) 12:00-17:00 に新風館において開催します.このイベントでは,プライバシを保護しながら映像から情報を得る技術や,得られた情報を分かりやすく観る技術など,プロジェクトの成果をデモ展示により紹介します.実証実験期間中,最後となる今回のイベントでは,新規に下記のデモが行われます.

  • RF-IDタグを利用したプライバシ制御付きデジタルジオラマの展示
  • 位置依存個人化サービスにおいて場所に応じた印象(口コミ情報)を利用者間で共有

また,従来のデモも精度向上を図った完成型を展示します.

入場無料ですので,是非ご来場の上,研究成果をご覧下さい.

イベントの概要

日時:2009年11月15日(日) 12:00-17:00

場所:京都市 中京区 新風館

(〒604-8172 京都市中京区烏丸通姉小路下ル場之町586-2)

http://www.shin-puh-kan.com/access.html

入場:無料

予定デモ:

  • ディジタルジオラマ

コンピュータグラフィックスで立体的に再現した新風館上で,今現 在の新風館の様子を見ることができます.

ミニロボット(フィノ)との音声対話により,デモを操作することができます.

RF-IDタグを使った,プライバシ制御の実験も行います.

  • 変身カメラ

プライバシを保護しつつ,実世界の情報を取得します.映像内の個人情報を除去して,人物を別のキャラクタに「変身」させて撮影します.

  • にぎわいマップ

地図上で館内のお客さんの混雑度(にぎわい度)がリアルタイムに分かります.

  • シースルービジョン

端末の画面越しに新風館中庭の風景をみると,障害物の影で見えなかった情

報も,補ってみることができるようになります.

  • 位置依存個人化サービス

無線端末(iPod touch)を持った人の位置に応じた情報提供を行うシステムです.

また,その場所に情報を残して,利用者間で共有することもできます.

iPod touchを貸し出しますので,実際にサービスを体験できます.

※デモ展示したプライバシ保護技術に関するアンケートを同時に実施します.ご協力頂いた方には,粗品を進呈します.

問い合わせ先

京都大学 学術情報メディアセンター 美濃研究室

電話:075-753-9060

FAX:075-753-9056

E-Mail:sweb@mm.media.kyoto-u.ac.jp

担当:満上(みつがみ),椋木(むくのき)

URL:http://www.mm.media.kyoto-u.ac.jp/sweb/index.html