Coral USBをどうすれば・・・

とりあえず、Coral USBをどうすれば・・・

ほとんど自分たち専用に、オープンにしておきます。

理解できる部分もあるのですが、日本の不動産オープンデータは何でほとんどないんだろう。。。何で日本の不動産APIは少ないのだろう。

スーパー極小弱小不動産会社ですが、そんなこんなで、資金も技術もないので、できるだけお金を掛けずにコツコツとはじめた不動産データセット作成。まだまだですが、短期間でお客様はもちろん、同業界等の日本の不動産業者の方からのアクセスが増えてきたので、少なくとも間接的には、お客様のお役に立っているモノになっているのかもしれませんが・・・

まだまだ不完全で、不動産情報、物件情報のデータは少ないのですが、結構日本の不動産データを別のコンテナにストックができてきました。
ときには、非常にアナログな感じで、物件概要や不動産情報データを作成したりもしています。

そんなこんなで、Coral USBをどうすれば・・・良いのか。
お恥ずかしながら、過去にも書いたかと思いますが、技術がないことは理解はしているのですが。
ほとんど自分たち専用にCoralを上手く活用できるように、オープンに。

0.00000000.…1%位は、IoTに少しは役に立ちそうなのか・・・(-_-)zzz

公式サイトをざっくりと一部引用させて頂き、貼り付けておきます。

AI at the edge
AI is pervasive today, from consumer to enterprise applications. With the explosive growth of connected devices, combined with a demand for privacy/confidentiality, low latency and bandwidth constraints, AI models trained in the cloud increasingly need to be run at the edge. Edge TPU is Google’s purpose-built ASIC designed to run AI at the edge. It delivers high performance in a small physical and power footprint, enabling the deployment of high-accuracy AI at the edge.

An open, end-to-end infrastructure for deploying AI solutions
Edge TPU enables the deployment of high-quality ML inference at the edge. It augments Google’s Cloud TPU and Cloud IoT to provide an end-to-end (cloud-to-edge, hardware + software) infrastructure to facilitate the deployment of customers’ AI-based solutions. In addition to its open-source TensorFlow Lite programming environment, Edge TPU will initially be deployed with several Google AI models, combining Google’s expertise in both AI and hardware.

Edge TPU complements CPUs, GPUs, FPGAs, and other ASIC solutions for running AI at the edge, which will be supported by Cloud IoT Edge.

cloud.google.com/edge-tpu

API demos
Try the following scripts that demonstrate how to use ClassificationEngine and DetectionEngine. Then inspect the source code for each to learn more about the Edge TPU APIs.

First you must navigate to the directory with the demos:

# If you're on the Dev Board:
cd /usr/lib/python3/dist-packages/edgetpu/

# If you're using the USB Accelerator:
cd python-tflite-source/edgetpu/

classify_image.py
This script performs image classification with ClassificationEngine, using the classification model, labels file, and image you give it.

python3 demo/classify_image.py \
--model test_data/mobilenet_v2_1.0_224_inat_bird_quant_edgetpu.tflite \
--label test_data/inat_bird_labels.txt \
--image test_data/parrot.jpg

You should see some results like this:

---------------------------
Ara macao (Scarlet Macaw)
Score : 0.613281
---------------------------
Platycercus elegans (Crimson Rosella)
Score : 0.152344


Raspberry Piの画面インチが小さすぎたので、それも少し変更しなければ・・・
coral.withgoogle.com/tutorials/edgetpu-api
tensorflow.org
tensorflow.org/lite
THE MNIST DATABASE of handwritten digits
yann.lecun.com/exdb/mnist
他にも日本語の音声データセットなども他のコンテナにしまっておりますが、典型的な例ですが、実装ができておりません。
とりあえず、できることを少しでもアップはさせて頂きますので、よろしくお願い致します。

限られたコストの中で、衛星画像のデータから成約事例などの実勢価格データなどを1層、2層・・・と重ねても現在の社会情勢や需要と供給に一致しなかったりなどの問題も(-_-)