2023/12/15

M42 を撮ってみたい(その2)

その1に続いてのその2。

我が家の適当環境でもそこそこ撮れた気がしましたのでその2続編です。

 M42 オリオン大星雲は年に1、2回チャレンジするのですが、うまく撮れず、すぐに諦めるということを繰り返してます。これを書いてる2023年は夏から冬に至るまでずーっと木星を撮り続けるというルーチンを繰り返してたので、オリオン座が拝めるようになったもののなかなか M42 を撮影しようとする気も起こらずで、ようやく重い腰を上げて今シーズン初のチャレンジとなりました。

都内の住宅街からの撮影になりますが、最近は光害を物ともせずに素晴らしい撮影をされる方々が沢山いるので、それぐらいのハンディは特殊なことではなくなってきたのかなと思います。




これが成果です。その1の頃に比べて格段によくなりました!型落ちのデジイチと普段使いのズームレンズでの撮影です。このセットでこの環境の結果なら悪く無い、ですよね?トラペジウムが潰れてるとか、そいういうのはおいといて。
ところでそろそろ Nikon のミラーレス欲しい。。。使い道無いんだけど。

さて機材は、
のみです。

流石に赤道儀は必要でした。以前経緯台モードでも撮影は試してますが、像が回転していってしまうので真ん中以外使えないのと少し長めの露出でも星が流れにくいので赤道儀あるといいです。また D750 はリング式三脚座を使って直接 AZ-GTi に載せてます。カメラはもちろんノーマル。無改造。なんにもいじってないです。電源は今回の撮影枚数程度なら多分バッテリーでも持つのですが、念の為外部電源繋いでます。
ちなみにこのズームレンズ、広角から望遠まで幅広い画角がコンパクトなサイズで使えて普段使いに便利なんです。しかしこれで最初に M31 を撮ってみた時には DSO にズームレンズなんて使えないんじゃ?と思ってました。


撮影方法は、PC に USB ケーブルで接続し、Windows の digiCamControl というソフトで、連続撮影して PC に画像を保存しましたが、他のソフトでもいいし、なんなら PC に接続する必要すら無いと思います。digiCamControl を使ってる理由は、ピントを PC から制御して、結果が Live View で確認できること、撮影すると PC に画像が転送できるので都度都度様子がチェックできることに使用してるだけで、ほったらかしでの撮影なので初期設定さえ決めてしまえば PC は不要と言えます。あと digiCamControl は D750 が制御できて(古めの機種なので相性悪いソフトもある)かつ、使い方が簡単だからというのもありました。Astro Photography Tool とかも持ってはいるんですが、digiCamControl はそれに比べると簡単なので。ちなみに PC 無し環境の場合、カメラにタイムラプス機能みたいなので、自動で複数枚数撮影できる機能あればそれでOKかと思います。

ところで今回は赤道儀(AZ-GTi の赤道儀モード)の設定はかなりいい加減でした。2スターアライメントにしたかったんですが、1スターしかちょうど良い星がなかったので(アライメント候補の星が二つ目は知らなくて暗めだった)1スターアライメントでかつ、極軸合わせもしてないというだいぶいい加減な設定でした。というのも露出時間はそんなに長くできないので、多少ズレてもわからないよねというところでガッツリは合わせこみませんでした。ちゃんと合わせた方が更にいいとは思います。もちろん最初に北に向けておくとか水平はちゃんと取るということはやってますけど、精度が高いかといえばそんなこともなく。
ちなみにアライメントは PC に繋いで PC の画面にライブビューを表示させながら行ってます。PC に繋ぐと楽な姿勢で大画面で調整できるのは便利。外部モニターでもいいでしょうね。

カメラの設定は以下の通りです。

  • ISO1600
  • Manual mode
  • f11
  • 露出時間 30sec (雑な赤道儀運用で 300mm でも撮影した星が流れないという基準)
  • 長秒時ノイズ低減 OFF
  • 好感度ノイズ低減 OFF
  • VR ON (VR 機能があるレンズは OFF にすることをおすすめ単に忘れただけ)

主なところはこんなところです。これがベストというわけではなく(もしかしたらベストなのかもしれませんが)、とりあえず今回はこの設定で撮ってみた、ということになります。ISO 感度は低めで、あとは露出時間 30sec をキープできるようかつ撮影画像が飽和しないよう絞りを絞っちゃったという(アリか?)、、

これで連続で 200 枚撮影し(最後の方雲が出てきたので 17枚ほど捨て)、キャップをして外気温のままダークを30枚、そのままシャッター速度を最高にして(D750 の場合1/4000)バイアスを30枚、PC の画面にグレーを出して、レンズを押し付けて、ヒストグラムが中央よりやや左になる程度で 30枚のフラットを撮りました。

撮った画像は Siril で処理して完了です。そのあとは何にもいじって無いです。以前はスタックと炙り出しに DSS (DeepSkyStacker) を使ってたのですが、Siril にしました。今回は総露出時間(撮影枚数x露出時間)もそこそこあったのですが、やはり Siril でのスタック以降の処理が効いてるような気がします。
Siril の使い方については ドキュメントの日本語訳を作ってくれた方がいて(その方のブログからも辿れます)、特に SIRIL の使い方スクリプト編が役に立ちました。それに従って処理しだけです。ダーク、バイアス、フラットなどの撮影方法についても前半に説明あります。とても参考になりました。ありがとうございます。

参考までに撮って出し。左が撮影開始時、右が撮影終了時。時間が遅くなるにつれて天頂近くになるのと周囲が暗くなるので撮影終了時の方が黒っぽいですね。しかも極軸合わせすらやってないので、1.5h 後には M42 がだいぶずれているというのがみてとれますね。。 orz
こんな画像でも Siril で星を抽出して、自動的に重ね合わせてくれるので全然問題無しです。あ、気を付ける点としてはピントをちゃんと合わせること。これでだいぶ違います。バーティノフマスクというのを使ってきちんと合わせられればいいのかもしれませんが、PC の画面見て、可能な限り拡大した状態で星の大きさが最も小さくなるようにピントを合わせました。


結論

なんか赤道儀あれば M42 は都内からでも普通のカメラとレンズでそこそこ写る。

というのを感じました。あと赤道儀がとは言ったもののガッツリ合わせこむこともなく適当でよかったというのもポイントです。

ところでM42 はまだいいんですが、都会だと他の天体を導入しようとすると撮影してみるまで導入できてるかよくわからないんで、アライメントがあり、自動導入ができる AZ-GTi は改めて便利だなと思いました。気合い?入れると極軸合わせもできるようだし(笑)新品買うと安くはないですが、中古ならそこそこの値段で出回ってるようです。軽い望遠鏡も載せられるので(そっちが本命ですが)、おすすめです。

しかし、単に綺麗な星雲、星団、銀河 (DSO: Deep Sky Object) を自宅で撮りたいんだったら SeeStar S50 買うというのが選択肢の一つになってきました。下手に望遠鏡などなどに投資することを考えたらこれ一台でそこそこの画像得られますし、特別な撮影技術もいらないです。ただし撮った後の画像処理は遊ぶ余地はあるようです。でも DSO を撮影するだけなら非常につまらない気がします。だってこれらの天体って変化ないので、誰が撮っても同じ程度の画像得られるなら写真見るのと変わらないんじゃないかなと。

そう考えると自宅での DSO 撮影ってどこに向かえばいいんだろ?

という疑問が沸々と。すっごい画像を狙うなら機材もさることながら撮影場所も変えないとなので両方ともちょっと自分には難しいかなと。ま、現状の機材で場所で楽しもうかな。

ということで最近は刻々と変化が見られる惑星や太陽の方が魅力を感じてきました。

2023/12/09

MAK127用フォーカサー Ver.4

MAK127に EAF などのフォーカサーを取り付けている猛者もいるようですが作るの好きなんで作ってみました。そもそも MAK127 は素直に電動フォーカサー付けるところ無いんだよなぁ。ぶつぶつ。

ところで我が MAK127用フォーカサーもついに Ver.4。ハード的には最終版。。だと思ってます。Ver.3 に比べ小型軽量化に成功です(当社比)!PC との接続はUSB-C ケーブルにて接続してください。




今回の Ver.4 はだいぶコンパクトに載ってるでしょ?(最終盤はこれより厚みがあるモーターに交換しました)。

これまではアリガタにアリミゾクランプをつかってモータを取り付けてたのですが、今回は 3D プリンターでモータを載せる土台を作って接眼部にはめ込む作りにしました。

これがベース
リングは単なる薄い輪です

スペーサー(追加になりました)



3D プリンターの部品は3つ。

です。スペーサーはサポーター有りでプリントせざるを得ない形状ですのでご注意を。
そのほかに必要なものは以下。
バイポーラステッピングモーターは当初小型のものを使ってみましたがトルクが足りないので、リンク先のものを使うことにしました。12V のモータで、これ以上のトルクならOKだと思います。ステップ角とかも同じである必要はないです。ただ、3Dプリンターで作る部品の形状を考えると、モータのネジ穴の間隔が同じである必要はあるかなと。
電源も 12V で 1A 程度かそれ以上あれば十分です。
あとちょっと日本での入手性が怪しくなりそうなのが ATOM STEPMOTOR Kit でしょうか。スイッチサイエンスさんでは在庫限りの扱いのようです。海外発送でよければ製造元の M5Stack のオンラインストアから入手できると思います。
タイミングベルトはプーリーや取り付け位置の兼ね合いで他の長さを選んでも良いかもしれません。

組み立て

MAK127 のフォーカスノブのプーリーへの交換は、Ver.3 の投稿を参考にしてください。

また一部古い写真つかっていて、最終盤とは違うところがあるのはご勘弁ください。

1. モータをベースに取り付ける
モータにある穴に六角スペーサーをねじこんでおきます(多分完全にねじ込めないで少し浮いた感じになる)。また小さいプーリーをモータに六角レンチでとりつけておきます(後で取り付け位置は修正する)。ネジで取り付ける前にタイミングベルトを挟んでおきます。それからモータをベースに M3 のネジ3本で取り付けます。


2. ATOM STEPMOTOR Kit の準備
モータに付属してるケーブルを適当な長さで切り、ATOM STEPMOTOR Kit にねじ止めします。あとでモータ電流を調整するので、蓋はまだ閉めなくてよい。また ATOM lite (写真右上の四角いやつ)は外れないよう付属のネジでモータドライバの載ってるケースとねじ止めしておいた方が良いかも。



3. ATOM STEPMOTOR Kit をベースに取り付ける
M3 のネジ2本で取り付ける。

4. DC ジャックケーブルを接続
ベースの穴を通して、ATOM STEPMOTOR Kit にねじ止めする。ケーブルの太さと穴のサイズが合わなかったら適当にグリグリしてください。


5. ノブにスペーサーを入れる(新)
プーリーを取り付ける前にスペーサーを入れておく
M3 35mm のネジをねじ込んでおく

ノブにプーリーを入れる前にスペーサーを入れておく


6. ベースを MAK127 に取り付ける
タイミングベルトは結構タイトです。プーリーに引っ掛けながら穴を取り外した接眼部に通します。そして薄いリングを重ねます。接眼部を戻し、ねじ込みます。この時きちんと真ん中でねじ込めるように。そしてしっかりねじこんだときに接眼部が回転せず固定されていること。奥までねじ込んでも接眼部が回ってしまう場合は、ベースの穴の位置と接眼部がちょうど真ん中になっていないか、3Dプリンターの違いで出力されたベースやリングの厚みが大きくて回るようになるケースが考えられます。薄いリングの厚みを変えてみてください。




7. ベルトの位置の調整
まずプーリーの高さを揃える。その後にベルトの張りをプーリーの下に入れたスペーサーのネジで調整します。この機構でようやくベルトの調整幅が広がりました。ベルトの長さが多少異なってもこれで吸収できるかと。ちなみにベルトは張りすぎるとモータの軸が回転しなくなります(脱調という)。硬すぎずゆるすぎずで調整してみてください。




以上で組み立てはおしまいです。

ソフトウェア

動作させるには ATOM STEPMOTOR Kit のためのファームと、それを動かす UI が必要になります。Git にて配布してます。以下のリンクより入手してください。ソースコードはあんまり整理してませんが、、、興味がある方すいません。余計なコードとか転がってたらすいません。
本当は ASCOM 対応にしたいところなのですが、今のところそんなスキルはありません。以前は ASCOM に対応している myFP2ESP を手直しして使ってたのですが、シリアルに対応しなくなってしまったのでやめました。myFP2 の方はまだシリアル対応してるっぽいので、気が向いたら myFP2 を移植し直そうかな。

ATOM STEPMOTOR Kit のファーム

Arduino 形式で書いてます。M5 Stack の ATOM lite の Arduino のビルド環境が必要です。Git に置いてある atom_stepper_ctrl.ino をビルドしてください。

ユーザーインターフェース

用意したファームはシリアルポートにテキストでアクセスできるようにしてます。なので、TeraTerm などのターミナルエミュレータで直接制御することができます。でも使いづらいですよね。そこで Python で GUI を用意しました (atom_focuser4.py)。実行するには customtkinter, pyserial といったライブラリをインストールする必要があります。Windows 向けにはバイナリを用意したので(atom_focuser4.exe)、Python をインストールせずにバイナリを実行することも可能です。ATOM STEPMOTOR Kit の接続されているポートを選択し、Connect のスライドボタンをクリックすれば接続です。-100~+100 のボタンをクリックすればそのステップだけ移動します。マウスが接続されているならホイールのスクロールで Position を増減できます(Shift キーを押しながらスクロールするとステップが変わります)。またカーソルの上下(+Shift)でも Position の増減が可能です。M1, M2 はマークで、スペースキーで M1, スペース+Shift で M2 に現在の Position を保存できます。M1 と M2 の中間に移動したい場合は (M1+M2)/2 のボタンをクリックしてください。また Position の値は直接書き換えて Return キーを押すと指定した値に移動します。
Python 版の方はマウスのスクロールステップを変更できるボタンが用意されています(おまけ)。



興味をもっていただけた酔狂な方のご質問は X の @ttrsato まで。こちらでもいいんですが、気づくのが結構遅いです。



木星を撮る2023年度版 (自動導入とトラッキング)

みなさんどんな感じで天体導入しているのかわからないんですが、もっといい方法あったりしたら教えてください。と前置きしておきます。

これを書いてる時点で MAK127 と AZ-GTi のセットを買ってもう4年目(遠い目)。コロナ禍をきっかけに天文ほぼ素人から始めて、いまだにわからないこともいっぱいあるのですが、今年2023年は木星を撮影しまくり、ようやく撮影がルーチンワーク的に進められるようになってきました。そこに至る経緯と現状について MAK127+AZ-GTi での観点からメモしておきます。ちなみに今年の木星シーズン初めの頃はまだモタモタしてました。というのもそれまでは撮影するのが一苦労でワンシーズンでそれほど撮影してないんで色々向上しなかったと。

ところで撮影環境は東京都内西部(環七と環八の間らへん)の自宅です。自宅は北極星がギリギリ視認できる程度の光害レベル。従って MAK127 付属の x1 のドットファインダーのみではよほど明るい天体でないと導入できないへなちょこなので、自動導入という仕組みがなかったら望遠鏡買ってなかったなーと。望遠鏡は撮影ごとに出したりしまったりするので毎度毎度前事前準備が必要です(ベランダに置いた収納ボックスにカメラ以外の望遠鏡一式が入れっぱなしなのですぐ出せはしますが)。

いいんかこれで?でも機動力優先!

また自宅は木造建築なので、望遠鏡を出してるベランダが揺れやすいだけでなく(家族が家の中でドタドタしても揺れる。。)、立っている位置を変えると導入している天体が簡単にズレます。高倍率の時は最悪です。

過去の経緯1

MAK127+AZ-GTi を初めて買った年は右も左もわからずググって接眼レンズを通してカメラ撮影できるらしいということを知り、MAK127 に付属の接眼レンズを拡大撮影用アクセサリー を通し、D750 を接続して撮影に挑んでました。ファインダーは MAK127 に付属のドットファインダーのみです(後で色々変える)。手順は以下でした。ちょっと思い出しながらなので正確じゃないところもあるかも。基本的にはファインダーを調整しておく。天体を導入したらとにかくファインダーを再調整しておく。途中すっ飛んでも大丈夫なようにとにかくファインダーはこまめに調整しておく。で、今でも流れは変わってないです。

拡大撮影用アクセサリーと 20mm のアイピース


天体の導入

  1. 20mm のアイピースでファインダーの調整
    適当な地上の目標を使い、20mm のアイピースで目標を導入(カメラなし。眼視で)します。AZ-GTi に SynScan App で接続し、方向キーで目標を正確に視界の中央にします。ドットファインダーを目標に合わせます。ここも極力正確に。

  2. 10mm のアイピースでファインダーの調整
    更にアイピースに変えてさらに追い込む。ピントが合う位置がズレるのでピント調整しなおし。

  3. アライメント
    ファインダーの調整が終わったらAZ-GTi のアライメントを行います(1~2スター。状況に応じて。3スターまではやってないです。対象の天体が見えなかったりわからないケースが多いので)。まずは AZ-GTi の水準器を見て水平に。そして経緯台モードなら望遠鏡も水平(スマホの水準器とか使うと便利)、スマホのアプリなど使って北の方向に向けておきます。スマホのアプリって毎回微妙に方向変わったりと正確に合わせるの難しいです。もうざっくり。ちなみに自宅から北極星は見えるので、だいたいこっちかなーと微調整するときもあります。ここで忘れないようにするのが、AZ-GTi の高度と方位クラッチのネジをきっちり締め直すこと!たまにネジが甘くてトラッキング時にあれあれ?となったりします。あとファインダーを触らない!ちょんと触ってズレて後で使えなくなることもしばしば。ちなみに付属のドットファインダーの調整ネジや本体は遊びが多いのでテープでぐるぐる巻きにしてみたりと少し工夫してます。

    ようやくここでアライメントを開始するボタンをクリック。アライメント先の天体がだいぶ離れたところに導入されてたりします(いつも思うんですがこんなもんなんですかねぇ。。それなりに水平と北向きは合わせてるつもりなんですが。自分のいる位置によってベランダが歪むのも一因だとは思うんですが)。流石に x1 のドットファインダーの視野には入っているので、覗きながら赤ポチを天体が中央になるように AZ-GTi の方向制御ボタンをポチポチしながら導入します。続いてアイピースを覗き、天体がセンターになるように調整してようやくアライメント終了。念の為、最後に合わせた天体でファインダーを再調整しておきます。

  4. 自動導入
    ようやく目的の天体を導入。導入直後はほぼほぼズレているので、ファインダーを覗きながら赤ポチに天体が入るよう AZ-GTi の方向ボタンをポチポチします。これでアイピースを覗いた時に天体が真ん中に導入されていればラッキー。見つからなかったら AZ-GTi を操作しながら周囲を探しに行きます。ファインダーの赤ポチで天体の周辺をぐるぐる探す感じです。見つかったらアイピースで覗いてセンターに移動、ファインダーも再調整です。ファインダーの調整は結構荒いので、赤ポチと星をちょうど重ねるのは難しいかもしれませんので、赤ポチのやや左側とかそんな感じでセンターになった場合どこら辺に合わせて置いたか記憶しておきます。ちなみにファインダー覗いて位置合わせを追い込むので暗い天体は厳しいです。うちの場合、土星でやや厳しい。

  5. カメラ装着
    鬼門です。アイピースを外して拡大撮影用アクセサリーに差し込んで、D750 と接続したものを差し替えます。カメラが結構重いのでせっかく天体を導入していてもすっ飛びます。経緯台の場合主に高度方向にズレるだけなので上下させるだけですぐ導入できる場合がありますが、ファインダー覗いて赤ポチを頼りにズレを戻すと導入しやすいです。カメラの感度もガンガンに上げておくと漏れ出てくる光でなんとなくそっちに天体があるかもというのがわかる時があるので、それを頼りに導入を行います。それでも導入が厳しい場合は 10mm -> 20mm のアイピースに戻して広い範囲からセンターに順に追い込みます。ただこの場合ピントのずれが大きくてピントを再調整する必要があったりするので、ピント調整で望遠鏡がグラグラするので辛いです。今思えばファインダーの調整、アライメントの段階からカメラ装着して位置を追い込んでも良かったなと思います。最近はいきなり高倍率状態でアライメントしちゃいます。

トラッキング

導入が終わると自動的に追いかけてはくれるのですが、放っておくとそのうちずれていきます。撮影中もつーっと流れていってしまうことがあるのですが、撮影範囲にはいっているのならばそこは気にせず、SynScan App の方向キーでちょこちょこ真ん中らへんになるように修正をかけていきます。高価な赤道儀だとここらへんどうなんでしょうか?極軸しっかり合わせてると AZ-GTi よりはだいぶマシなんですかねぇ。自分の場合は撮影中はつきっきりでした。なので一回の連続する撮影だけで疲れちゃいます。デローテーション用に複数のデータ撮るのは至難の業でした。初めて長めのアニメーション用の撮影したときは2時間ぐらいつきっきりでしたし。ちなみにある程度撮影範囲をふらふらするデータでもスタックする際もしくはその前に PiPP のようなツールでセンタリングさせてしまえば問題なくスタックできます(PiPP が最近 Web から消えた。。非常に困る)。流石に風が強くてブルブルしているようなケースではうまく行かない場合もありますが。
SynScan App での方向キーでの架台のコントロールは PC のゲーム用コントローラーで行うことができます。少なくとも PC の SynScan Pro App 最新版では。PC の画面をマウスでクリックしたり、携帯の SynScan App を指で制御するより明確でわかりやすです。もしゲーム用コントローラをお持ちでしたら試してください。Windows だと有線でも無線でもどちらでもOKでした。

過去の経緯2

天体の導入

MAK127 購入一年後には撮影機材が進化して、アイピースはバローレンズ(x2) になり、カメラは D750 から ASI462MC という惑星向きの非冷却カラーカメラになりました。基本的にはカメラが劇的に軽くなったので、カメラの装着で大幅にズレるという問題は解消しました。バローレンズ x2 も入れたりと拡大率が高くなってしまったので導入に苦労するようになりました。バローレンズなしで合わせて、バローレンズを入れて導入してましたが、ドットファインダーを調整したつもりでも、赤ポチのどこに天体を合わせるとカメラの視界に入ってくるのかわかりにくくなったり、バローレンズの入れ替えでピントの再調整があったりと、天体を導入することが億劫になり、モチベーションがだいぶ下がりました。しばらくそんな日が続きます。

それを変えたのがファインダーでした。ドットファインダーから 9x50 の照明付きファインダーに交換しました。これが ASI462MC を導入したのと同じ年。これは劇的に効きました。まずレンズがないドットファインダーに比べ拡大してくれるのと、ドットではなく細い二重のクロスゲージでセンターを表示してくれるので、ガイドがドットファインダーの赤ポチのように天体に被らないので、目的の天体を真ん中に置いていることがわかりやすくなりました。また天体の周りにクロスゲージがあるので天体がカメラに入ってこない場合にどこらへんを探索しているのかがわかりやすくなりました。副次的にいままで見づらかった土星もはっきり見えるようになって土星の導入もだいぶ楽になりました。このころから低倍率からだんだん高倍率にして導入することもなくなり、いきなり高倍率状態(ASI462MC にバローレンズ x2 を付けた状態)からのアライメントをするようになりました。ただし、それを行うには今まで以上に最初のファインダーの調整をシビアにするようになりました。アライメントの方も撮影中だけマニュアルで微調整するから 1スターでいいやと雑にもなってきました。

過去の経緯3

天体の導入

ファインダーを導入して高倍率時の天体の導入はだいぶ楽になりましたが、一つ困った問題が発生しました。アライメントです。導入したファインダーの倍率だと最初のアライメント時にターゲットの天体がファインダーから外れてしまうことが度々おこりました。仕方ないのでアライメントを開始後に、望遠鏡とターゲットの天体の方向を目視で確認して、SynScan の方向キーでおおよその方向を修正ののち、ファインダーの視界に入ってきたらファインダーを覗きながらアライメントを進める。という手順でした。
次の改良はファインダーを複数載せるでした。3スロットスターポインター(という名前だったらしい三又のファインダー台座)を導入です。これ買った時は2000円ぐらいだったんですが、久しぶりに見ると高くなってます(類似品見つけた方がいいですね)。これを導入したらアライメント時にはドットファインダー見ながら大まかに架台を制御して、続いて高倍率ファインダーに切り替えて追い込むと、ファインダー二つの調整が必要なものの、安定して確実に導入していけるようになりました。これの導入には別な目的もあって、当時はまだ行っていなかった AZ-GTi を赤道儀化したときのファインダーの位置解消にも使えると思っての投資でした。AZ-GTi は赤道儀を使えるファームにすると経緯台モードの時に左側に付けていた MAK127 が右側につけるようになってしまうので、ファインダーをつける位置が左下ととても見えにくくなってしまいます。三又のファインダー台座で少しは改善が可能です。

二連装

2023年度

天体の導入

ファインダーの改善

2022年は特に進歩もなく、そして現在。ファインダーを二つ調整する面倒くささと、三又のファインダー台座がそこそこ重いという問題がありつつも導入もルーチンワーク化して特に大きな問題とは思ってませんでした。

ところが、YouTube で電視ファインダーの作成なるものを見つけてしまいました。これはーと思って早速作ってみたら、うん、これは世界が変わるでした。それが2023年9月末。惑星のシーズンも終盤にさしかかったところでした。電視ファインダーの導入で変わったこと、
  • 無理な姿勢でファインダーを覗く必要がなくなった
  • 焦点距離を短めにして広範囲を表示してアライメントに迷うことない状態にし、導入で追い込む時は電子的に拡大してとファインダーの焦点距離を擬似的に複数持つことができてファインダーを一つに集約できた
  • ファインダーは PC で確認できるようになったので、別な PC からログインするというリモート活用ができるようになった

ドットファインダーの頃から
ファインダーの調整に1km ほど先にあるマンションの赤色灯を利用してます


左が FireCapture の ASI462MC x2.5 のバローレンズがすでに付いてます
右が SharpCap の Ceres-C (電子ファインダー) x800 の最大倍率での合わせ込み中

電視ファインダーをこんな感じで合わせ込みをしてます。表示したクロスゲージのど真ん中になるよう電視ファインダーのネジを調整しておきます。

トラッキング

今年は電視ファインダーの導入で急激に色々なことが変わり始めました。次に課題となってたのが、トラッキング。これも改善してしまいました(電視ファインダーとは関係ないんです。FireCapture です)。電視ファインダーを導入する前まで惑星の撮影は SharpCap 無料版で行っていましたが、ついでに FireCapture に変更しました(SharpCap 買い切りなら購入してもいいんだけど、毎年払うのは嫌だなと。で購入には至らず)。FireCapture はフリーでありながら惑星撮影には便利。導入に成功したら SynScan を ASCOM で FireCapture で接続し、Autoguide をオンにしておけばあとはその場を離れても FireCapture が撮影映像の木星が中心になるように AZ-GTi を自動で制御してくれて、ずっとトラッキングし続けてくれます。これでもう安心。撮影に集中できます。ROI(撮影範囲)を極力狭くして FPS を上げることもできますし、ピントを心ゆくまで追い込んだり、デローテーションのために複数回数撮影したり、ゲインや露出を変えるのを試したりなど色々やりやすくなりました。しかも PC は 家庭内 LAN に WiFi 接続してるので、離れた居間で暑さ寒さや蚊に悩まされることもなくビール片手にシーイングが回復するのを待つとか、雲の切れ目を待っての撮影などとても快適な環境になりました。良さげだなーとおもったら Autorun でポチッとワンセット撮ってしまいます。

赤丸で囲ったのが Autoguide のボタン
Autorun で撮影中の画面

おしまい。

2023/10/21

FireCapture のプラグイン (フォーカス関連)

 FireCapture を使い始めて間もないのですが、少しずつ使えるようになってきて、プラグインに興味が出てきました。というのもピント合わせに使えそうな FocusHelp 機能があるのですが、表示しても挙動がなんだかよくわからず。。

で、調べてみると

http://www.firecapture.de/ReleaseNotes.pdf

 に FWHM ベースの演算に置き換えたよと書かれてます。

FWHM って何?かというと、

https://sharpcap-jp.sakura.ne.jp/SharpCapUserManual_JP-web/18_.htm

点光源で星の幅を測るということらしいです。確かにピントが合ってないと光源が大きく見えたりするので、それを利用するのもありなのかなと思いますが、惑星向きとは書いてませんね。でもたしか FocusHelp にリセットとかあったけど、それで初期化してみたことはないな。。なんかリセットすると使えたりするのかな。。


「うん。いまいちわからん!」


ということで、ほかの手段を探してみました。

FireCapture のサイトの下の方にプラグインっていうのがあります。Description を眺めてみると、EdgeDetection と ImageInfo という二つのプラグインが惑星のフォーカスというキーワードがあるので使えそうです。


インストール

う。。わからない。Java でのプラグインの作り方の動画はあるんですが。仕方ないのでそれを見ると、FireCapture のインストールしたパスの下の pulgins の下の x64 の下に置けばよさそうです。FireCapture のサイトから(ほかのサイトに誘導されるものもある)ダウンロードしたプラグインを展開して、そのフォルダをここに置きます。 それぞれのプラグインフォルダの下にプラグイン .jar が置かれてる感じですね。うちではこんな感じになります。


使い方

PreProcessing の None をクリックします。



すると次のウインドウが立ち上がるので、有効にしたいプラグインの ON/OFF の×をクリックすると有効になります。

左下の Keep selected filter/plugin enable on startup にチェックを入れておくと次回起動時に ON したフィルタかプラグインが自動的に有効になります。

Image Info

Dummy Cam を使ったイメージインフォを有効にした場合の表示はこんな感じになります。

ついでにオプションのボタンも押してオプションを表示してみました。なにやらいろいろ設定項目があります。詳細はプラグインについてるドキュメントを読んでください。5 Usage hints が参考になるか。。な。フォーカスが合い始める点と再び悪くなる点に着目するとか、ゲイン高めで中央がやや露出オーバーになった方が合わせやすくていいかもとか。

EdgeDetec

エッジ検出は有効にするとこんな風になります。スライダーで閾値を変更することができます。。月のクレーターのエッジ検出とか惑星に良いなど書いてますね。

さて、今度試してみますか。

2023/09/08

ATOM SPP を作ってみた (Bluetooth SPP を使った WiFi とは違う AZ-GTi の無線化)

はじめに



だいぶ前に SynScan USB を作ってみた。という記事を書きましたが、今度はその無線版です。

作ってみたものの、なんか通信エラー出るなと思ってたんですが、ファームを変更し、Windows のシリアルの設定を変更したらまぁまぁ安定するようになってきた気がします。でもまだまだ感は否めず。

AZ-GTi はもともと WiFi (無線)で接続できるのに何それ?と思うかもしれませんが、AZ-GTi に WiFi 接続する方法は二つあって、AZ-GTi を WiFi のサーバーとして携帯もしくは PC を接続する方法と、AZ-GTi を既存の WiFi ネットワークにぶら下げて、携帯もしくは PC からそのネットワーク経由で AZ-GTi に接続する方法の二通りがあります。

前者だと AZ-GTi がサーバーになってしまうので接続した携帯または PC は外部ネットワークに接続することができなくなってしまいます。後者だと WiFi ネットワークの電波が AZ-GTi を動かしたい場所まで飛んでいないと使えないという不便さがあります。

したがってその不便さを解消するために今までは AZ-GTi を接続するのに SynScan USB (もどき) でシリアル+USB ケーブルにて接続していました。ケーブル接続の方が無線より確実!かもしれないのですが、アライメントをとってる最中とか、導入先を変えるときに PC を持って移動するとケーブルひっかけて接続が切れる。。ことがたまにありました。なので大量のデータを流すカメラはともかくコントローラ程度に対して有線にこだわりは全くなくて。

ちなみに架台さえ対応していれば SynScan Pro で BLE でも接続できるようですが、AZ-GTi は対応してなさげですね。

Bluetooth SPP

では別な無線化の方法を提案してみます。まず AZ-GTi とは HAND CONTROLLER のポートを使ってシリアルで通信ができるのでこれを利用します。Bluetooth には SPP という Bluetooth を介してシリアル制御を行えるという通信規約があります。これをサポートするモジュールを HAND CONTROLLER ポートに接続することによって Bluetooth 経由でシリアル接続することができます。PC でこれらモジュールを Bluetooth デバイスとして追加してあげるとその後はあたかもシリアルポートが追加されたように見えます。Windows だと COMxx、macOS だと /dev/cu.xx のような感じで。


制作

それほどは難しくないです。Bluetooth SPP をサポートするモジュールを用意して、HAND CONTROLLER のポートにつなぐだけです。今回は手持ちの ATOM lite (M5Stack) を使いました。スイッチサイエンスさんなどで入手できます。便利につかうには電源を HAND CONTROLLER ポートからいただくので、三端子レギュレータ(またはDC-DCレギュレータ)も付けます。

部品

ATOM lite (スイッチサイエンス) ... 1,496yen

低損失三端子レギュレーター 5V 500mA (秋月電子) ... 100yen
もしくは BP5293-50 5V 2A (秋月電子)... 240yen こちらの方がおすすめ。

6極6芯モジュラージャック DIP 化キット(秋月電子) ... 100yen

基板(適当)(秋月電子) ... 40yen

ピンヘッダ 1x40 (秋月電子) ... 35yen

半田少々

線材少々

モジュラーコード 6極4芯 (絶対4芯あるのにしてください)

ファームウェア

ATOM lite のプログラムです。すっごく簡単です。RX を 19, TX を 22 ピンにアサインしました。AZ-GTi とのシリアル通信は 9600bps, 8bit, パリティなしです。また ATOM-SPP という名前のデバイスにしました。loop() の delayMicroseconds(105) は ATOM->AZ-GTi のデータ転送速度が間に合うよう 1/9600sec の wait を入れてます。もう少し短くしてもいいかもしれないけど。delay(1) だと 1ms で長すぎで、AZ-GTi からのデータが多いと取りこぼす可能性あるのかなと。

/*
*******************************************************************************
* Copyright (c) 2023 by Tatsuro Sato
*
* describe:ATOM SPP module
* date:2023/9/6
*******************************************************************************
*/
#include "M5Atom.h"
#include "BluetoothSerial.h"

#define RX_PORT 19
#define TX_PORT 22
#define AZ_GTI_SERIAL_SPEED 9600

BluetoothSerial SerialBT;

void setup() {
  M5.begin(true, false, true);
  Serial2.begin(AZ_GTI_SERIAL_SPEED, SERIAL_8N1, RX_PORT, TX_PORT);
  SerialBT.begin("ATOM-SPP");
  M5.dis.drawpix(0, 0x000099);
}

void loop() {
  if (SerialBT.available()) {
    Serial2.write(SerialBT.read());
  }
  if (Serial2.available()) {
    SerialBT.write(Serial2.read());  
  }
  delayMicroseconds(105);
}

回路図




接続は、
  • モジュラージャック 2 pin (TX) - ATOM lite G19 (RX)
  • モジュラージャック 3 pin (Vpp+ 7.5~14V) - TA48M05F(BP5293-50) 1 pin (input)
  • モジュラージャック 4 pin (RX) - ATOM lite G22 (TX)
  • モジュラージャック 5 pin (GND) - TA48M05F(BP5293-50) 3 pin (GND) - ATOM lite GND
  • TA48M05F(BP5203-50) 2 pin (5V out) - ATOM lite 5V
これにコンデンサ二個つけるだけです(BP5293-50 の時はいらない)。
すいません、最初にアップした回路図の TA48M05F のピン番号 2 と 3 が逆でした。真ん中が 3 です。ちなみに TA48M05F は 12V->5V と結構電圧降下があるのでとても熱くなります。Rohm の BP5293-50 に変えてみたのですが、外付けのコンデンサは無くてよく、熱くもならないのでこちらの方がお勧めです。端子は同じなので置き換えるだけ。若干大きいのがいまいちですが。

使い方

  1. AZ-GTi に上記モジュールを接続し、電源を入れる
  2. PC で Bluetooth のデバイスの追加を行う
    ATOM-SPP というデバイスが見つかるのでそれを追加する
    macOS の場合、一旦接続になり数秒で切断されるが気にしない。
    通信を再開させると自動的に接続される。
  3. PC のデバイス設定を確認する
    • Win
      デバイスマネージャーのポート(COM と LPT)に Bluetooth リンク経由の標準シリアルが二つ追加されている。どっちが有効かわからないので両方ためしてみる。
    • macOS
      ターミナルソフトなどで ls /dev とやると、cu.ATOM-SPP というのがみつかるはずです。
  4. SynScan Pro を立ち上げ設定をする
    設定→接続の設定→ Serial Port に設定します。


    • Win
      上記で調べた COMxx を選択します
    • macOS
      /dev/cu.ATOM-SPP
      を書き込みます
  5. 接続
    接続する
    で接続できる。。と思います。

あれ?接続できない?不安定かも?と思ったら

まだ検証開始したばかりなので何とも言えないんですが、OS では認識してるっぽいのに、SynScan Pro で接続できない場合がありました。何度か接続を試すと繋がります。繋がったらほぼ安定している感じです。

対処1
デバイスマネージャーで、シリアルの通信速度確認してみてください。115200 にしてください。ほかの設定も合わせること。8ビット、パリティなし、ストップビット 1、フロー制御なし。


対処2
詳細設定から、FIFO バッファーの設定を変えます。どちらかを試してみてください。
まずは受信を最大。送信を 1 にする。


FIFO バッファーを使用しない。


AZ-GTi は 9600bps, SPP は 115200bps と速度が違うので、取りこぼしがないように受信にはバッファを設けた方がよさげな気がします。送信はたまったデータが一気にいかないように 1バイトにした方がいいのかな。。というのが前者の設定。

対処3
Windows の SynScan で、COM ポート名に文字化けした文字列がくっつくケースがあります。この部分を削除した値を設定してください。




2023/05/08

バドミントンのダブルスのペアの生成を ChatGPT で試してみる

はじめに 

バドミントンなどでダブルスのペアを決める時にじゃんけんや組み合わせの乱数表などをつかったりするのですが、じゃんけんだと案外偏ってしまったり、乱数表だと疲れたり調子が悪くて予定外の人が休憩入れたりすると訳わからなくなってしまいます。

そんな時に役立つアプリ

PairGen

PairGen

使い方

を作ってみたのですが、こんな?アプリなんてなくても ChatGPT でできるんじゃ?というのが今回の試みです。

あ、無償、広告なし(今のところ)のこの太っ腹なアプリを使ってくれてもいいですよ。

ChatGPT でデータを処理させたり、プログラムコード生成をさせてみるというのはあるのだけど、落合陽一氏が ChatGPT でプロンプトを書くことをプログラミングするという言い方がちょっと面白いなと思って、なんか試してみようというのがモチベーション。よし、ChatGPT をプログラムを実行するプラットフォームとして見てみよう。

余談ですが昨今の AI による画像生成すごいですよね。リアルなものは本物にかなり近づいてきましたね。

目標

さて ChatGPT は無償で使える 3.5 を使ってみます。プログラムとなる ChatGPT への命令(プロンプト)を作り、追加条件のコート数、プレイヤー名を与え、組み合わせの生成をリクエストすると組み合わせを生成してくれる。ようなものをつくることを目標にします。

実験

ChatGPT へのプロンプトを作成する前に、条件(制約)を明確に決める必要があります。というか条件をうまく決めることがプログラミングということですね。プロンプトには色々スタイルがあるようですが、ChatGPT が理解しやすそうな自然言語(文章)ならなんでもいい(はず)です。

条件

とりあえずバドミントンのダブルスの条件を箇条書きで書いてみます。まずは一つのコートだけの条件を考えてみます。

  1. バドミントンのダブルスの試合は二組のペアで作られる。二組のペアが揃わない時は試合が組めない。
  2. ペアは二人の選手で構成される。選手が二人未満ではペアは作れない。
  3. 選手は同じ回で複数のペアに参加することはできない。
  4. 前回休憩した選手は優先的にペアを作る選手に選択される。ペアの組み合わせは前に組んでいない組み合わせを優先する。
  5. 以前組んだことがある場合、組んだ回数がすくないペアを優先する。
  6. ペアを組めない選手は休憩する。

とりあえずこれで試してみます。

あ、日本語よりは英語の方がより思った答えが出やすいので、上記条件を英訳してプロンプトにしてみます。Google 翻訳で訳したのが以下。

A badminton doubles match is made up of two pairs. You can't set up a match if you don't have two pairs.

A pair consists of two players. A pair cannot be formed with less than two players.

Players may not participate in more than one pair in the same inning.

Players who took a break last time will be selected as priority players for pairing. Priority is given to combinations that have not been paired before.

If the pair has been paired before, priority is given to the pair that has been paired with the least number of times.

Athletes who cannot form a pair rest.  

これをプロンプトっぽく仕立てます。# で何の条件か指定して、あとは条件を箇条書きしています。

プロンプト

# Badminton doubles pair generation condition

1. The Badminton doubles match is made up of two pairs. 
2. A match cannot be made with less than two pairs.
3. A pair consists of two players. 
4. A pair cannot be made with less than two players.
5. Players must not participate in more than one pair in the same round.
6. Players who took a break last round will be selected as priority players for pairing. 
7. Priority is given to combinations that have not been paired before. 
8. If the pair has been paired before, priority is given to the pair that has been paired with the least number of times.
9. Players who cannot participate take a rest.

さてこれで試してみます。CharGPT にアクセスして、上記をそのままいれて送信するとなにやら ChatGPT が理解した内容を返してきます。

その後に、プレイヤーのリストと、10回分の組み合わせを生成するよう命令します。プレイヤーのリストは Player list という言葉とプレイヤーを「:」で区切ってみました。またプレイヤーの名前は敢えて日本語で、しかも区切りは「、」を使ってみました。結果を見るとちゃんと識別していますね。
また命令は日本語だと意図が正しく伝わらなかったことがあるので英語で書いてます。あれ、なんで猫入れちゃったんだろう。。

Player list: 犬、猫、猿、雉、桃太郎、鬼
Can you generate pairs for 10 rounds?  け

結果

帰ってきた結果は以下のようになりました。
Sure! Based on the given player list and the conditions provided, the following pairs can be generated for 10 rounds:

Round 1:
- Pair 1: 犬 and 猫
- Pair 2: 猿 and 雉

Round 2:
- Pair 1: 猫 and 雉
- Pair 2: 犬 and 桃太郎

Round 3:
- Pair 1: 犬 and 猿
- Pair 2: 桃太郎 and 鬼

Round 4:
- Pair 1: 猫 and 猿
- Pair 2: 雉 and 鬼

Round 5:
- Pair 1: 犬 and 雉
- Pair 2: 猫 and 桃太郎

Round 6:
- Pair 1: 犬 and 鬼
- Pair 2: 猿 and 桃太郎

Round 7:
- Pair 1: 猫 and 桃太郎
- Pair 2: 猿 and 鬼

Round 8:
- Pair 1: 犬 and 猿
- Pair 2: 雉 and 桃太郎

Round 9:
- Pair 1: 犬 and 桃太郎
- Pair 2: 猫 and 鬼

Round 10:
- Pair 1: 猿 and 雉
- Pair 2: 桃太郎 and 鬼

Note that in each round, priority was given to the players who took a break in the last round, and the pairs were selected based on the conditions provided. Also, after each pair was selected, the players in the pair were removed from the list of available players for the next round.

それっぽい結果が返ってきています。組み合わせを見てみると、

犬: 猫 桃 猿 雉 鬼 猿 桃
猫: 犬 雉 猿 桃 桃 鬼
猿: 雉 犬 猫 桃 鬼 犬 雉
雉: 猿 猫 鬼 犬 桃 猿
桃: 犬 鬼 猫 猿 猫 雉 犬 鬼
鬼: 桃 雉 犬 猿 猫 桃

悪くないですね。それなりにばらけているし、ほぼ参加回数も同じような感じです。ただ鬼が最初2回連続で休みだったり、桃太郎が一回参加回数が多いですね。惜しい。どこか条件の優先度がうまく効いてないか、足りないか。じつは結果のまとめもプロンプト書いてまとめたかったのだけど、指示出しがうまくいかず、マニュアル集計です。プロンプト難しい。ただ単に自分が論理的な指示がうまく出せないだけなのか?

とりあえずもう少し試しては見たいものの、結果が期待通りかどうかを検証するのが面倒。まずそれがちゃんとできるようになったら目的のプロンプトをいじってみよう。

2023/02/05

MacBook Air M2 で Windows11 ARM 環境は使い物になるのか?

一週間ほど Parallels に Windows11 を入れて触った感触としては、周辺機器とは関係ない、単にソフトウェアを動かしたいだけなのなら結構違和感なく使えるのではないんでしょうか。macOS と Win11 の切り替えは全画面にしている Win11 とは指3本でスワイプでスカスカ切り替えられて、とてもスムーズ。とても別な OS が同居してる感はないです。CPU 半分 (4個)貸してるけど、macOS 側も特にストレスなしです。何年前か忘れたけど出始めのころの Palallels を触った感覚ではもっさり感はあったなぁ。隔世の感があります。

また動かなくて困ってる組み込み系のソフトはあるのですが、想定内でやはりなぁと。困ったらいままでの Intel Mac でどうにかしつつ、M2 で出来ることが増やせればな感じです。

比較対象にしてるマシンは、それまで使っていた MacBook Pro 2015 15" Retina。Core-i7 2.5GHzで、Memory 16GB 搭載してて macOS でも Bootcamp の Windows10 でもまだ十分使えるなというマシンです(個人的な感想)。

購入マシン構成とその経緯

MacBook Air M2 2022 8CPU, 8GPU (Mac14,2)
Memory: 24GB
SSD: 1TB

購入を決めたのは M2 Pro/Max が発表になってから一週間後ぐらい。M2 Pro が高すぎるのであきらめて、Parallels を使う前提で構成を決めました。候補としては M1 Air もあったのですが、仮想環境がまともに走ってほしいので、最大メモリ搭載量が大きく、MagSafe があってポートに余裕のある M2 Air にすることにしました。OS も二つ以上入れることと、天体撮影で必要な一時的なデータセーブサイズを考えて SSD も多めに。ちょっと高いんだけど。あと MagSafe 好きなんです。本体のコネクタに負担かからないので。今回の MagSafe のケーブルは前と見た目と違うんだけど、耐久性に改良がされているんでしょうか?期待しちゃいますね。GPU については GPU をガンガンに使ってくれるソフトはあんまり縁がなさそうだなと思ったので 8GPU にしておきました。 
キーボードはポクポクしたクリックを感じるタッチです。嫌いではないです。HHKB の方が好きですが。

アミアミ?ケーブル


速度と体感

速度

Geekbench 5 で CPU 性能を比較してみます。

macOS
MachineCPUOSSingle-coreMulti-core
MacBook Pro 2015Core-i7Monterey7443294
MacBook Air M2M2Ventura19098923

Windows
MachineVMOSSingle-coreMulti-core
MacBook Pro 2015(Bootcamp)Windows107313173
MacBook Air M2Parallels18Windows1116625560

macOS だと Intel Mac (Monteley) のスコアが 744/3294 のところ、M2 Air (Ventrura) が 1909/8923 程度。Windows だと Bootcamp (Win10) が 731/3173 で、Parallels 仮想環境 (Win11) が 1662/5560 という結果になりました (それぞれ single core/multi core の値)。macOS 同士の比較で 2.6/2.7 倍で Windows 同士だと 2.27/1.75倍と仮想環境はやや遅めとはいえど、2倍程度の速度の違いがあり、十分体感できる差になります。あれ、こんなもんかとは思いましたが。ただしバッテリーの持ちは抜群で、丸一日使ってもまだ余裕ある感じです。倍の性能で何倍電池持つんだよって感じで。macOS の方も、積極的に輝度下げたりとか低消費電力対策をしてるようには感じましたが。

体感

いままで古い Intel Mac で普段使いのソフトでは特に不満がなかったので、多少キビキビしててもその差ははっきり言って分かりにくいのですが、コンパイルなどでは流石にその差を体感できました。うぉー速いとまでは思わないけど、あ、速くなったって感じです。M5Stack のコンパイルは Arduino IDE でとても遅くてイライラしてたのが耐えられるぐらいの速度になりました。macOS ネイティブ環境しか比べていませんが。また、天文系の画処理ソフトはそこまで速くなった感は無いのですが。と思って、Windows で Autostakkert によるスタッキングの速度を比較したら、えーという結果が。。 Parallels の Edition 選択のところにその顛末を。

Parallels vs UTM

どうしようか迷ったが、とりあえず安定しているだろう Parallels にしとこう。

Parallels Standard Edition vs Pro Edition

てんこ盛りにしても CPU 数 8、メモリ最大 24GB とあまりリソースの多くない M2 Air に Standard だと CPU 4, メモリ 8GB までしか割り当てられなくて十分に感じられる。したがって多くの CPU やメモリを割り当てられる Pro にするメリットはない。ほんと?ということで、CPU の数を 4 と 6 動画撮影して PiPP で前処理した木星 2400フレームを Autostakkert! 3でスタックしてみた。
スタック時間が 84秒と 70秒。メモリ使用量も 1.4GB 程度なので 8GB もあればとりあえず十分。かな?使用した画像はだいぶトリムしてるので、ちょっと大き目な画像を処理したら 8GB では足りないかもしれない。そんなの滅多にないと思うので、Standard でいいかもしれないし、24GB ではなく、16GB で十分だったかもという気になってる。Standard Edition と Pro Edition の価格差は 1,000円ほど。macOS の更新が毎年あったとして、それに合わせて Parallels もアップデートした方が良いかもと考えると微妙だなぁ。この差。どうしよ。年に +1,000円して少しおまけな機能と OS のアップデートに合わせた更新をしていくのかとか。
結局。。一年間はプロにして様子見。ということにした。


4 core

6 core

ここで衝撃の事実。
実は今まで使ってた Intel Mac 爆速でした。


Stacking という項目をみるとわかるのですが、倍速です。えぇ、涙目です。なんで古い Intel Mac が勝つんだ〜と。

ちなみになんでこういう差になるかというと、真ん中の上の方に Thread という項目があるのですが、Intel Mac 8 なんですよね。それと比べて 4 コアだと 4, 6 コアだと 6 スレッドというようにコアの数しかスレッド流せないみたいです。M2。それとも OS がサポートしていないだけなのか。。Intel Mac は Core i7-4770HQ というプロセッサーで、4 コアなのですが、8スレッドあるので、スレッド数で優ってるんですね。M2 ネイティブなソフトならコア数で同じ数のスレッド走らせるとするとどうなるんだろう?というのは気になりますね。

VM

Windows 11

は DSP版でお安くした分、無駄に Pro にしておいた。
Windows11 は今までの MacBook Pro の Bootcamp で走る Windows 10 は残すので、別途 DSP版を購入したのだけど、アクティベーションに苦労した。DSP版だからというわけではなさそうなのだけど。多分。終わりよければ全てよし。アクティベーションを何度も試すときはVM捨てるので、インストールしたソフトはすべて空に。。

Ubuntu

Windows に WSL ではなく、Parallels に Ubuntu を導入。こちらのほうが素直ですよね。とりあえず iverilog + gtkwave が走る環境を準備。iverilog は apt で最新版を入れられたのだけど、fst フォーマットが扱えなかったので、ビルドからやりなおし。RISC-V チップの Verilog simulation の実行は結構速く、、いや今までの環境に比べると体感爆速。

M2 Air で出来たこと出来ていないこと

(2023/2/5 時点)
天文関係のソフトと組み込み系のソフトを試しています。Win11 は Parallels18 上で走らせています。Parallels には Ubuntu も入れています。

動かせたもの一覧。

天文関係

macOS

  • Firecapture 2.7.10 + ASI462MC
  • ASIStudio v1.7 + ASI462MC
  • SynScan Pro v2.1.12 + AZ-GTi
Firecapture と ASIStudio はどちらもカメラを認識してカメラをオン、画像を表示できました。SynsScan Pro の Mac 版なんてあったんですね。撮影は Mac で、画処理は Windows でいけそうです。いままで Sharpcap だったんで、Firecapture 覚えないと。

Win11

  • PiPP  x64 v2.5.9
  • Autostakkert 3.1.4
  • RegiStax6 Version6.1.0.8
  • WinJUPOS 12.2.4
ファイルの Open, Save に関しては Mac と共有のフォルダではダメなケースがありましたが、処理自体は特に問題ない感じです。どのツールも速くなった感じはあるものの、もともとそれなりに時間がかかる処理なので、めっちゃ速くなったという感じはしませんでした。

組み込み系

macOS

  • Arduino IDE + M5Stack Basic, Gray, Stick, Stick+, Atom-Matrix,Atom-Lite,M5 Core2,M5Paper,CoreInk
Basic, Gray, Stick は認識させるのに苦労しました。M5Stack のサイトにあるドライバを入れたりなんなりごちゃごちゃしてたらいつの間にか認識するように。他は特になにもしなくてもあっさり認識しました。Arduino IDE のコンパイル時間は速くなりました。ちょっとは待たされるのですが個人的に許容範囲です。PlatformIO や VSCode の Arduino 環境ではまだ動作確認できていません。
  • MakeCode + micro:bit 
初代 micro:bit です。最初すぐに認識してくれなかったのですが、接続できて MakeCode からダウンロードボタンで書き込みができました。

Win11

  • Gowin V1.9.8.09 Education + TangNano4K, TangNano9K
この手のツールは全然ダメだろうと諦めていたのですが、ビットストリーム吐き出して、書き込みも OK でした。ただ表示が崩れていてシリアルの設定か何かは全く内容を確認することも設定することもできない感じです。また無印 TangNano に関しては認識してくれなかったので、書き込みテストできていません。

上手くできなかったもの ToDo

上記はうまく動いてそうな組み合わせ。動かなかった・または一部動いていないものは以下です。
  • SynScan Pro (望遠鏡の架台 AZ-GTi の制御)
    Windows からだとツールは立ち上がります。シリアル接続がうまくいかないです。なぜかこの環境だとシリアルデータに偶数パリティが追加されるようで、それが原因のようです。Mac 版があることがわかってそれが動作するのでいいのですが、他のソフトとの連帯はどうなんだろ。
  • SyarpCap
    起動はします。カメラ認識してくれないんですよ。ZWO で ARM 向けのドライバを用意してくれていないからだと思います。ただ、ZWO としてはなんかしてくれそうな雰囲気
  • Vivado 2015 (旧Xilinx の FPGA 向けツール)
    入れたけど起動せず。困ったことにアンインストールもできずに無駄なディスクを食ってます。OS 入れなおそうか。。新しいバージョンは動いているらしい事例ありです。
  • Tang Dynasty (TangPrimer 搭載 Anlogic の FPGA 向けツール)
    Win は Bitstream まで出せるが、ダウンロードできない, Ubuntu では起動しないが、シリアルは認識してるので、どっちもどっちな感じ。惜しい。Win 11 ARM 向けドライバ作ってー。もしくは Linux 版リビルドしてー。
  • Quatus (旧Altera の FPGA 向けツール)
    Win, Ubuntu ともにインストールすらままならず。Win 版 Quatus は WSL が必要らしいので、入れてみようと思ったけど WSL そのものが入らず。そもそも仮想マシンの仮想マシンってどうよという。しかも WSL で Ubuntu が走ったとしても ARM 系 Ubuntu だと結局だめじゃんとなりそう。

というわけで、なにか代替え手段があるかもしれませんが、上記はまだまだなツールです。ハードに依存しない Windows のソフトは結構動いている感じです。組み込み系も FTDI の USB シリアル系搭載デバイスであれば案外いける雰囲気があります。他にも ARM 版ドライバさえあれば、、という惜しいツールもあったりします。また Visual C++ 再配布可能なパッケージが必要なソフトウェアもあるので入れなければならないかもしれません。が、これはこの環境とはまた別でよくある話かも。他には XX.DLL がありませんのようなメッセージが出て起動できないツールがあるのですが、DLL のみを入手できるサイトから入手して適切なフォルダに置くと OK とかいう場合もあるそうです(自分では上手く行ったものは無いのですが)。
Ubuntu や Windows 上の WSL (インストールできてない)は、軒並み既存バイナリは動かなそうな雰囲気です。ARM アーキテクチャ向けに再ビルドが必要なのかなという感じ。

USB のドライバ

ちなみに Windows 向けの FTDI のドライバは ARM 版をインストールできます。.zip をダウンロードして C: ドライブに展開。デバイスマネージャーから黄色三角の出ている FTDI 系デバイスに対してドライバを展開したフォルダを指定してインストールすれば OK です。注意点はドライバーを Windows の C: ドライブのどこかに置くことです。Mac 側と共有されているダウンロードフォルダーに置かれていたりすると認識してくれません。
M5Stack は USBのドライバを 配布してます。

AE-F234X も使えてますよ〜。
TX と RX をワニでショートな荒技ループバック



Parallels での Windows で注意すること

あれおかしいと思ったらデータを保存、起動する場所を調べてみるといいかも。上記で書いた通り、Mac との共有フォルダに置いたファイルの読み書きは Windows のソフト次第でできたりできなかったりなので、基本 C: ドライブにおいた方が問題なさそうです。


とりあえず進捗あったら更新します。気が向いたら。