ようこそシャチクパーク!

今日もどったんばったん大騒ぎ!

CentOS7にZabbixを入れる

dockerで触ってましたが、CentOS7の仮想マシンに入れました。

 

qiita.com

 

・環境

# cat /etc/redhat-release
CentOS Linux release 7.3.1611 (Core)

 

rpmを追加 

# curl -O http://repo.zabbix.com/zabbix/3.2/rhel/7/x86_64/zabbix-release-3.2-1.el7.noarch.rpm

# rpm -ivh zabbix-release-3.2-1.el7.noarch.rpm

 

・Zabbixをインストール

# yum install -y zabbix-server-mysql zabbix-web-mysql zabbix-web-japanese zabbix-agent

# yum install -y mariadb-server

 

・DBの設定

以下を/etc/my.cnf.d/server.cnfに追加

[mysqld]
character-set-server = utf8
collation-server     = utf8_bin
skip-character-set-client-handshake
innodb_file_per_table

 

DBを起動させてDBを作成。パスワードをセット。

# systemctl start mariadb

# mysql -uroot

MariaDB [(none)]> create database zabbix;

MariaDB [(none)]> grant all privileges on zabbix.* to zabbix@localhost identified by 'password' ;

MariaDB [(none)]> exit

 

初期データを作成します。

# zcat /usr/share/doc/zabbix-server-mysql-3.2.7/create.sql.gz | mysql -uroot zabbix

 

/etc/zabbix/zabbix_server.confにDBのパスワードをセットします。

DBPassword=password

 

/etc/httpd/conf.d/zabbix.confにタイムゾーンをセットします。

php_value date.timezone Asia/Tokyo

 

・サービスを起動

# systemctl start zabbix-server
# systemctl start zabbix-agent
# systemctl start httpd
# systemctl enable zabbix-server
# systemctl enable zabbix-agent
# systemctl enable httpd

 

selinux

ところがzabbix-serverが起動せず、selinuxを切ると起動しました。

# setenforce 0

# systemctl status zabbix-server
● zabbix-server.service - Zabbix Server
   Loaded: loaded (/usr/lib/systemd/system/zabbix-server.service; disabled; vendor preset: disabled)
   Active: active (running)

 

・firewall設定

webにアクセスできず、firewallの設定を忘れていました。。

# firewall-cmd --add-port=10051/tcp --zone=public --permanent
# firewall-cmd --add-service=http --zone=public --permanent
# systemctl restart firewalld

 

・ログイン

http://ZabbixサーバーのIPアドレス/zabbix/ にアクセスして初期設定を順次入力していきます。

入力後、Admin/zabbixでログイン。

f:id:ken5owata:20170803214119p:plain

 

完了しました。

dockerでZabbixを触ってみる

お仕事でZabbix触るっぽいんでdockerで触ってみたお。

ほぼチュートリアルをなぞっただけ。

 

Dockerized Zabbix - Zabbix.org

 

dev.classmethod.jp

 

環境はUbuntu16.04です

 

・imageの取得

必要なdockerimageをpullしてきます。

 

$ sudo docker pull monitoringartist/zabbix-db-mariadb

$ sudo docker pull monitoringartist/zabbix-xxl

 

・DB用のコンテナ起動

 $ sudo docker run \
    -d \
    --name zabbix-db \
    --env="MARIADB_USER=zabbix" \
    --env="MARIADB_PASS=my_password" \
    monitoringartist/zabbix-db-mariadb

 

・Zabbixサーバのコンテナを起動

$ sudo docker run \
    -d \
    --name zabbix \
    -p 8080:80 \
    -p 10051:10051 \
    -v /etc/localtime:/etc/localtime:ro \
    --link zabbix-db:zabbix.db \
    --env="ZS_DBHost=zabbix.db" \
    --env="ZS_DBUser=zabbix" \
    --env="ZS_DBPassword=my_password" \
    --env="XXL_zapix=true" \
    --env="XXL_grapher=true" \
    monitoringartist/zabbix-xxl:latest

 

・ログイン

ブラウザでアクセスし

f:id:ken5owata:20170418074730p:plain

 

admin、zabbixでログイン

f:id:ken5owata:20170418074756p:plain

 

おしまい。

Intel NUCで始める自宅ESXi6.5

というわけでIntel NUCを買いました。

第6世代のNUC6i3SYHです。

 

f:id:ken5owata:20170702125218j:image

 

お仕事でWindowsサーバを触れることも多くなりAWSでもいいんだけど、手元にあったほうが何かと便利だしESXiの勉強にもなるかなと思う次第でありまして。

購入代金はなんとかボーナスでまかなえるはず。。。。(震え声

 

秋葉原ツクモに行って必要なものを購入、取説みて組み立てます。

thinkpadの分解とかよりはるかにラクチンであっという間です。

 

f:id:ken5owata:20170702125858j:image

 

組み立てたらキーボードとHDMI-VGAの変換ケーブルをモニターに接続して電源ON、BIOS画面へ入ります。

ちゃんとメモリとSSDが認識しているのを確認します。

メモリとSSDの認識を確認したらダウンロードしたVMware-VMvisor-Installer-6.5.0-4564106.x86_64.iso をUSBメモリに書き込ませてインストールしました。

特にエラーもなくすんなりとインストールできました。

f:id:ken5owata:20170730214853p:plain

 

インストール後、以下の2つを対応しました。

1.データストアのアクセスが遅い

isoのアップロード遅くね?OSのインストール遅くね?とか思ってたら、以下のページと同じ現象が起きていたようなので、SSHログインして以下コマンドを実行しました。

[root@localhost:~] esxcli system module set -e=false -m=vmw_ahci

 

blog.kurokobo.com

 

2.NICを追加

NUCはデフォルト1ポートしかNICがありません。以下URLそのままにUSBのLANアダプタを買ってきてNICを追加しました。

http://blog.techlab-xe.net/archives/5227

USB 3.0 Ethernet Adapter (NIC) driver for ESXi 6.5 | virtuallyGhetto

↑のURLを参考に以下コマンドを実行した後、再起動すると追加したNICが認識されました。

[root@localhost:~] esxcli software vib install -v /vghetto-ax88179-esxi65.vib -f
Installation Result
   Message: Operation finished successfully.
   Reboot Required: false
   VIBs Installed: virtuallyGhetto_bootbank_vghetto-ax88179-esxi65_6.0.0-1.0.0
   VIBs Removed:
   VIBs Skipped:
[root@localhost:~]

[root@localhost:~] esxcli system module set -m=vmkusb -e=FALSE

 

f:id:ken5owata:20170730213930p:plain

 

というわけでこれから楽しいESXiライフを送ろうと思います。(`・ω・´)

f:id:ken5owata:20170730215842p:plain

 

raspberry pi 3にTensorFlowを入れて画像認識させる

qiita.com

 

こいつの続き、ラズパイ3にTensorFlowを入れるところから。

これでわしもきゅうり判別機を作れるだろうかw 。

 

・TensorFlowを入れる 

GitHub - samjabrahams/tensorflow-on-raspberry-pi: TensorFlow for Raspberry Pi

pi@raspberrypi:~ $ wget https://github.com/samjabrahams/tensorflow-on-raspberry-pi/releases/download/v1.1.0/tensorflow-1.1.0-cp27-none-linux_armv7l.whl

pi@raspberrypi:~ $ sudo pip install tensorflow-1.1.0-cp27-none-linux_armv7l.whl

pi@raspberrypi:~ $ sudo pip uninstall mock

pi@raspberrypi:~ $ sudo pip install mock

 

・確認

pi@raspberrypi:~ $ python
Python 2.7.9 (default, Sep 17 2016, 20:26:04)
[GCC 4.9.2] on linux2
Type "help", "copyright", "credits" or "license" for more information.
>>> import tensorflow as tf
>>> hello = tf.constant('Hello, TensorFlow!')
>>> sess = tf.Session()
>>> print sess.run(hello)
Hello, TensorFlow!
>>> a = tf.constant(10)
>>> b = tf.constant(32)
>>> print sess.run(a + b)
42
>>>

 

・kerasを入れる(かなり時間かかった。。)

pi@raspberrypi:~ $ sudo pip install keras

 

・学習済みのモデルを持ってくる

pi@raspberrypi:~ $ git clone https://github.com/fchollet/deep-learning-models

 

・実行 → 怒られた

pi@raspberrypi:~/deep-learning-models $ python inception_v3.py
Using TensorFlow backend.
Downloading data from https://github.com/fchollet/deep-learning-models/releases/download/v0.5/inception_v3_weights_tf_dim_ordering_tf_kernels.h5
Traceback (most recent call last):
  File "inception_v3.py", line 399, in <module>
    model = InceptionV3(include_top=True, weights='imagenet')
  File "inception_v3.py", line 385, in InceptionV3
    model.load_weights(weights_path)
  File "/usr/local/lib/python2.7/dist-packages/keras/engine/topology.py", line 2531, in load_weights
    raise ImportError('`load_weights` requires h5py.')
ImportError: `load_weights` requires h5py.
pi@raspberrypi:~/deep-learning-models $

 

・h5pyっていうのがいるの? → pipで入れる → 怒られた

pi@raspberrypi:~ $ sudo pip install h5py

※中略

In file included from /tmp/pip-build-1n231R/h5py/h5py/defs.c:470:0:
    /tmp/pip-build-1n231R/h5py/h5py/api_compat.h:27:18: fatal error: hdf5.h: No such file or directory
     #include "hdf5.h"
                      ^
    compilation terminated.
    error: command 'arm-linux-gnueabihf-gcc' failed with exit status 1

 

・必要なものをいれる

pi@raspberrypi:~ $ sudo apt-get install -y libhdf5-dev

 

・とりあえずh5pyっていうのが入った

pi@raspberrypi:~ $ sudo pip install h5py
Collecting h5py
  Using cached h5py-2.7.0.tar.gz
Requirement already satisfied: numpy>=1.7 in /usr/local/lib/python2.7/dist-packages (from h5py)
Requirement already satisfied: six in /usr/local/lib/python2.7/dist-packages (from h5py)
Building wheels for collected packages: h5py
  Running setup.py bdist_wheel for h5py ... done
  Stored in directory: /root/.cache/pip/wheels/3e/ff/67/d04f183c668c251c1bc737224584dec995715d486178f77ede
Successfully built h5py
Installing collected packages: h5py
Successfully installed h5py-2.7.0
pi@raspberrypi:~ $

 

・これで行けるか? → 失敗。。。

pi@raspberrypi:~/deep-learning-models $ python inception_v3.py
Using TensorFlow backend.
Traceback (most recent call last):
  File "inception_v3.py", line 402, in <module>
    img = image.load_img(img_path, target_size=(299, 299))
  File "/usr/local/lib/python2.7/dist-packages/keras/preprocessing/image.py", line 318, in load_img
    raise ImportError('Could not import PIL.Image. '
ImportError: Could not import PIL.Image. The use of `array_to_img` requires PIL.
pi@raspberrypi:~/deep-learning-models $

 

・これがいる模様 → pillow

pi@raspberrypi:~/deep-learning-models $ sudo pip install pillow

 

・必要なもの入ったんじゃね?

pi@raspberrypi:~/deep-learning-models $ python
Python 2.7.9 (default, Sep 17 2016, 20:26:04)
[GCC 4.9.2] on linux2
Type "help", "copyright", "credits" or "license" for more information.
>>> import PIL
>>>

 

・来たーー!!???

pi@raspberrypi:~/deep-learning-models $ python inception_v3.py
Using TensorFlow backend.
Downloading data from https://s3.amazonaws.com/deep-learning-models/image-models/imagenet_class_index.json
Predicted: (u'n02504458', u'African_elephant', 0.58458394), (u'n01871265', u'tusker', 0.35385633), (u'n02504013', u'Indian_elephant', 0.01978549), (u'n02134084', u'ice_bear', 0.0005529598), (u'n02437312', u'Arabian_camel', 0.00053362496)
pi@raspberrypi:~/deep-learning-models $

 

※この画像

f:id:ken5owata:20170612223613j:plain

 

アフリカゾウ、あってそう!

 

pi@raspberrypi:~/deep-learning-models $ time python inception_v3.py apple.jpg
Using TensorFlow backend.
Predicted: (u'n07742313', u'Granny_Smith', 0.41690961), (u'n07720875', u'bell_pepper', 0.056339104), (u'n07745940', u'strawberry', 0.037945356), (u'n07747607', u'orange', 0.031627435), (u'n07768694', u'pomegranate', 0.027530219)

pi@raspberrypi:~/deep-learning-models $

 

なるほどりんごですか、色はちがうけど合ってるね。

※この画像

 

pi@raspberrypi:~/deep-learning-models $ time python inception_v3.py fi004.jpg
Using TensorFlow backend.
Predicted: (u'n07684084', u'French_loaf', 0.318775), (u'n07716358', u'zucchini', 0.17547932), (u'n07579787', u'plate', 0.1427407), (u'n07860988', u'dough', 0.07184507), (u'n07871810', u'meat_loaf', 0.067287661)

pi@raspberrypi:~/deep-learning-models $

 

んーフランスパンですかー??

※この画像

 

pi@raspberrypi:~/deep-learning-models $ python inception_v3.py
Using TensorFlow backend.
Predicted: (u'n04350905', u'suit', 0.14072829), (u'n03763968', u'military_uniform', 0.1166545), (u'n02916936', u'bulletproof_vest', 0.068024598), (u'n02883205', u'bow_tie', 0.037428539), (u'n04591157', u'Windsor_tie', 0.02336538)
pi@raspberrypi:~/deep-learning-models $

 

スーツ、軍服、防弾チョッキ、蝶ネクタイ!??!!!

 

※この画像

f:id:ken5owata:20170612223841j:plain

 

あっ(察し)。

raspberry pi 3にOpenCVをインスコ

qiita.com

 

こんどの勉強会でやるのを予習。

まずOpenCVをraspiに入れるとこをやてみよ。

 

・使ったもの

 2017-04-10-raspbian-jessie-lite.img

 →起動させてからsshファイルをboot領域に入れるの忘れるよねー

 

とりあえず以下の手順をなぞる。

 

www.pyimagesearch.com

 

日本語で解説されているところ、ありがたい

tomosoft.jp

 

・必要なものを入れる

pi@raspberrypi:~ $ sudo apt-get update

pi@raspberrypi:~ $ sudo apt-get upgrade

pi@raspberrypi:~ $ sudo apt-get install build-essential cmake pkg-config

pi@raspberrypi:~ $ sudo apt-get install libjpeg-dev libtiff5-dev libjasper-dev libpng12-dev

pi@raspberrypi:~ $ sudo apt-get install libavcodec-dev libavformat-dev libswscale-dev libv4l-dev

pi@raspberrypi:~ $ sudo apt-get install libxvidcore-dev libx264-dev

pi@raspberrypi:~ $ sudo apt-get install libgtk2.0-dev

pi@raspberrypi:~ $ sudo apt-get install libatlas-base-dev gfortran

pi@raspberrypi:~ $ sudo apt-get install python2.7-dev

 

OpenCVを入れる。

 3.2.0が最新だったので、そっちにしました。

 

pi@raspberrypi:~ $ wget -O opencv.zip https://github.com/Itseez/opencv/archive/3.2.0.zip

pi@raspberrypi:~ $ wget -O opencv_contrib.zip https://github.com/Itseez/opencv_contrib/archive/3.2.0.zip

※zipを解凍(忘れ)

pi@raspberrypi:~ $ wget https://bootstrap.pypa.io/get-pip.py

pi@raspberrypi:~ $ sudo python get-pip.py

 

・numpyを入れる(けっこうかかる)

pi@raspberrypi:~ $ sudo pip install numpy

 

pi@raspberrypi:~ $ cd opencv-3.2.0/

pi@raspberrypi:~/opencv-3.2.0 $ mkdir build

pi@raspberrypi:~/opencv-3.2.0 $ cd build/

pi@raspberrypi:~/opencv-3.2.0/build $ cmake -D CMAKE_BUILD_TYPE=RELEASE \
> -D CMAKE_INSTALL_PREFIX=/usr/local \
> -D INSTALL_PYTHON_EXAMPLES=ON \
> -D OPENCV_EXTRA_MODULES_PATH=~/opencv_contrib-3.2.0/modules/ \
> -D BUILD_EXAMPLES=ON ..

 

 Python2のとこがOKそうなのを確認

 

--   Python 2:
--     Interpreter:                 /usr/bin/python2.7 (ver 2.7.9)
--     Libraries:                   /usr/lib/arm-linux-gnueabihf/libpython2.7.so (ver 2.7.9)
--     numpy:                       /usr/local/lib/python2.7/dist-packages/numpy/core/include (ver 1.13.0)
--     packages path:               lib/python2.7/dist-packages

 

OpenCVコンパイル(2時間かかる)

pi@raspberrypi:~/opencv-3.2.0/build $ time make -j4

(中略)

real    135m55.136s
user    421m28.900s
sys     11m5.550s

 

OpenCVを入れる。

pi@raspberrypi:~/opencv-3.2.0/build $ sudo make install

pi@raspberrypi:~/opencv-3.2.0/build $ sudo ldconfig

 

・確認

 無事入ったようです。

pi@raspberrypi:~ $ python
Python 2.7.9 (default, Sep 17 2016, 20:26:04)
[GCC 4.9.2] on linux2
Type "help", "copyright", "credits" or "license" for more information.
>>> import cv2
>>> cv2.__version__
'3.2.0'
>>>

 

・サンプルプログラム

 ここのをお借りしました。

 OpenCV 3をPython 2.7言語で顔認識プログラム | TomoSoft

 実行

pi@raspberrypi:~/sample $ python face.py
inimg/lena.jpg
pi@raspberrypi:~/sample $

 

ぬおー!顔が四角で覆われました!

 

f:id:ken5owata:20170611212810j:plain

 

勉強会参加めも(5月~6月)

唐突だが5月と6月に参加した勉強会の覚えてる限り感想を書いていきましょう。
めんどくさくて書いてなかっただけとか

 

・5/27(土)Y8 2017 spring in Shibuya 

去年に引き続き参加しました。今年は渋谷のサイバーエージェントさん。
行き方がわかりづらいとこですが、1回行ったことあったので当日はスムーズに着席しました。
 
・学びのあったトーク
「インフラエンジニアのWebアプリ入門」
 ハートビーツさんで活躍されてる方のお話。
 自分で手を動かしてTCPサーバ作ったりしてみると、HTTPプロトコルやwebサーバの仕組みがわかっていいぞと。
 ハートビートさんの別の方が、車輪の再発明という話をされてたけど同様にいい話だった。
 
MySQLサーバパフォーマンスチューニング」

 アプリからインフラ担当になった方のお話でした。 初期設定のままで動かしてたら週1でダウンするMySQLサーバ(何それこわい) 適切なmy.cnfの設定とレプリケーションの設定で安定した運用と可用性を確保できたという話、DB初心者にもわかりやすいトークとスライドでした。 ラズパイ2台でやってみようかな。

 

 P.S お昼に孤独のグルメに出ていた店で長崎皿うどんを食べた。おいしかった。

 

・5/28(日) Android Bazaar and Conference 2017 Spring

japan-android-group.connpass.com

 

 

 IoTのトークを聞きに品川の東海大学のキャンパスへ。

 

トーク

今更聞けない、IoTの基礎と事例

 芳和システムの鈴木さんのお話。

 IoTの基礎と事例ということでBLE、WiSUN、LoRa、Sigfoxなどの違いを説明がありました。飛ばせるデータ量と距離が変わってくるんですな。出力、消費電力、暗号化、データ長は核技術によりちがうのでそこは考えどころと。

 

オープンソースによるドローン開発とクラウドサービス

 今村さんによるOSSでのドローン開発の現状と現在開発中のもののお話。

 OSSのドローン開発コミュニティは合流したり分裂したりだとか。

 Linaroが出してるDragonBoardを使ってフライトコントローラ(ヤタガラス)を作成されてて、ESP8266を使ったミニドローン(ハチドリ)を会場で回して見させてもらいました。

 今あるドローンではペットボトル2本積んで、15分ぐらいしか飛ばせないので災害の撮影とかで使うのが重要とか。

 あとモータの稼働状況をフィードバックしながら制御できるような本当の産業ドローンが必要と仰ってました。

 

農業IoT「みどりクラウド」のこれまでとこれから

 ラズパイを使ったみどりクラウドのお話。

 質問したら神奈川県内だけでも70台ぐらい動いてるそうな。全国で考えると結構な数ですね。OS止まったらどうすんのかも聞いてみたら農家さんがコンセント挿しなおすとか。

 まぁIPMIみたいな機構はラズパイじゃ無理ですかね。

 最初の鈴木さんのお話ではIoT×農業ってのはけっこうはハードルが高くて、電池から有害物質が無農薬栽培の畑に流失しないかとかぶっちゃけIoTで作ったトマトそんなにおいしくなかったwとかっていう話があって、それはまたみどりクラウドとはベクトルが違うんだろうなーと。

 みどりクラウドはおいしいトマトを作るというより、農家の負担を減らすという生産性が向上するソリューションなんでしょうね。

 

・6/4 (日)KiCad入門ハンズオン #0

connpass.com

 

ESP8266やESP32の基板を作って発注してみたかったので行ってきました。

講師はMaker Fairでラズパイクラスタカメラやってる方でした。

今年も参加されるようで何よりです、ブログも拝見させて頂いてます。

make.kosakalab.com

 

そんなKiCad入門ハンズオン、もともと教職の方だったそうで、進め方もテキストも抜群、次もあったら是非参加したい。

何ぶん電子回路の基礎がないので、そこら辺も勉強しないと

(べたグランドis何的な?)

 

 

おしまい。

ESP32を始めてみる Visual Studio 2017編

わーい!ESP32ってたーのしー!

ちょっと間が開いていしまいました。

秋月電子でも開発ボートの取り扱いが始まって今年はESP32がけものフレンズ並みに流行りそうですね。

 

今回はプラグインをいれることでVisualStudioがArduino IDE代わりになるということで以下でも取り上げられいまして二番煎じ丸出しです。

てなわけでこの前入れたVisual Studio 2017でもESP32に書き込みができました。

確認したのはRC版ですがこの前正式リリースされた正式版でも同じようにできると思います。

 

d.hatena.ne.jp

 

・インストール

 何はともあれVS2017を入れましょう。

 C++も入れないと動かないので注意してください。

 

プラグイン追加

 ツール→拡張機能を開いてarduinoで検索して出てきた「Arduino IDE for Visual Studio」をダウンロードします。

 ダウンロード完了後にVSを再起動するとチームとツールの間にvMicroと表示されました。

f:id:ken5owata:20170318212643p:plain

 

最初はBoardにESP32が出てこず、やだな~おかしいな~と稲川淳二ばりに首をひねってましたが、以下の下2つの設定(スケッチの保存先とjsonファイルのURL)を削除してみるとうまくESP32が出てくるようになりました。

f:id:ken5owata:20170318214031p:plain

 

理由はわからないけどまぁいいです。

f:id:ken5owata:20170318214238p:plain

 

あとはESP32を書き込みモードにして書き込むだけですね。

f:id:ken5owata:20170318214518p:plain

f:id:ken5owata:20170318214525p:plain

 

ブレークポイントを置いてデバッグ...のようなことはできませんが入力補完が効くのでラクですね~

 

f:id:ken5owata:20170318215706p:plain