音声入力を使わないルーティンでまず思いついたのが、帰宅ルーティン。
家に帰って「ただいま」と言えばGoogleAssistantがルーティンで明かりをつけたりカーテンを閉めたりしてくれる。
これを、何かトリガーを用意して帰宅を記録させればオートメーションでうごかせるのではないかと。
トリガーで使えそうなのは、玄関の開け閉め、ロックの解除、GPS、人感センサー。
人感センサーについては私の環境ではちょっと使いにくかったので無し。
開閉センサーはHAでデータ取れないので無し。
一番わかりやすいのはスマホのGPSかな。自分の位置を目印にするのがいいかもしれない。
そう考えてGPSをトリガーに何日かテストをしてたんだけど、どうもこいつは揺らぎが大きい。地図を見ても、自分が自宅の直上に表示されてない。
chatGPTが言うには遮蔽物があると遮断される可能性もあるという事で、条件付けが「30秒家にいる」という設定にしていたんだが、それや揺らぎのせいでなかなか条件の状態にならなかった。
どうしたものかと思っていたら「Wi-Fiに切り替わるタイミングをトリガーにしてはどうか」と提案された。
なるほど、家に帰ってきたらスマホはLTEからWi-Fiに切り替わる。それを使えというわけね。
そのあとも命令を書き間違えてたりいろいろありましたが、やっと今日の帰宅時に予定通りオートメーションが動いた。
やったね☆
次に手掛けたのが朝のルーティン。
スマホが家にあり、予定の時間になったらリビングのライトをつけてカーテンを開けるという簡単な条件だったので、すぐできた。
でも実際にそれが行われたら、何か物足らない…。
朝のルーティンには日付の読み上げ、天気の読み上げ、予定の読み上げも入ってたんだよね。
それに慣れてたから、無言でカーテンが開くのは何か淋しい。
どうにかならんかなーって調べてたら、音声入力は無理だけどAIスピーカーに音声出力することは出来るってことが判った。
ところで、chatGPTがずっと「サービス」と言い続けてるHAの項目はバージョン変更により「アクション」という項目に変わっているのだけれど、やつもGeminiも情報が古く、ずっと「サービス」って案内してくるんだよ。
「開発者ツール→サービスからサービスを選択し…」って。
「統合」にはサービス提供をしているものもあるし、私もよく判ってないもんだから、何か別の「サービス」というものがあるのかとずっと悩んでいたんだけれど、実はそう言う事だった。
紛らわしい!!
閑話休題…
それでおしゃべりさせるためのyamlをずっとchatGPTに書かせていたのだけど、その過程でちょっとだけHAの開発者ツールが使えるようになった。
あれ、テスト環境用のシステムなんだな。判ってなかったわ。
天気の統合を取り込んだり、読ませる情報をどうするか考えたり、そもそもちゃんと喋るかってところで何度も躓きがあった。
なのでNestminiが「これはテストです」って喋った時、感動してしまったわ。キターーー! ってなった。
最終的には大体同じような情報を喋るようにはなったんだけど、喋りが若干とろいのが少し気になる感じ。スピード調整は出来ないようなので、これはもうあきらめた。
最後に今日の予定を喋らせたかったんだけど、これの取得がどうにも上手く行かない。どうやら複数予定があっても1番目の予定しか取得できないらしく、複数予定があった時に役に立たない。
いろいろやってみたんだけど今のところ収穫無しなので、これについてはいったん放置。
後今日やったのはタブレットを制御盤にする準備。
8インチタブレットが余ってるから、これを簡単な操作パネル代わりに置けないかなと。
手に持って見るなら8インチも割といい感じのサイズなんだけど、据え置きパネルになるとちょっと小さい。
でもこれしか余ってないから妥協。
で、Fully Kiosk Browserてアプリ入れてHAを常時表示するように設定。スクリーンセーバー機能は有料だったけど、chatGPTがローカルで作れるよってちゃちゃっと作ってくれた。
どーでもいいけど、最近chatGPTとGeminiとしかまともに話をしていない気がする。
で、無事に「普段はスクリーンセーバーの時計、タップするとHA、しばらく放置するとまたスクリーンセーバーの時計」が実現しました。
やったヤッタ☆
操作パネルとして使うなら手持ちで操作するより大きいカードを作る必要があるから情報はたくさんは乗せられない。でもまぁ、よく使うものや常にチェックしておきたい情報だけ表示させとけばでいいので、それは後日また作っていく。
次はテレビとHDDレコーダーのリモコン作りだ。
