はてなキーワード: エクスポートとは
ChatGPTの公式機能である「データエクスポート」をリクエストした直後、数年分のチャット履歴がすべて画面から消滅した。
過去のやり取りを保存しておこうと思い、バックアップ(zip)の申請をして認証コードを入れた、その直後のことだ。ブラウザをリロードすると、左側にあったはずの膨大な履歴が消え、真っ白な「新しいチャット」だけが残っていた。
すぐにサポートへ連絡し、画面録画や通信ログ、ブラウザを変えての検証結果など、自分にできる限りの資料を揃えて提出した。けれど、数日間にわたるやり取りの末に届いた回答は「ネットワーク環境やデバイスの設定の問題ではないか」という、あまりに的外れな門前払いだった。
結局、表示が戻ることはなかった。
今回学んだのは、データを守るための公式機能が、逆にデータを消し去るトリガーになることがあるという、笑えないバグの存在だ。
1回目 複アカで同一ブクマからのBAN→複アカを使ってはいけないことを知る。
2回目 1回目のアカウントでブクマした記事をもう一度ブクマしてBAN→BANされたアカウントで過去にブクマしたサイトは新しく作成したアカウントでブクマしてはいけないことを知る。
3回目 謎。たぶん巻き込み通報された→スパムがブクマしているサイトをブクマしてはいけないことを知る。
4回目 謎。たぶん政治的なことを言い過ぎた→政治的なことを言い過ぎてはならないことを知る。
5回目 謎。作成直後4ブクマくらいでBANされた→本当にわからない。
6回目 謎。たぶんファーストブクマしたサイトが100ブクマを超えて、注目されたのかもしれない→本当にわからない。
BANをした理由を伝えられず、利用規約違反としか言われないので何度でもBANされるのも仕方がない。
というか、2回目までは自分に非があるのは認めるけど、それ以降は普通に利用しているだけなのに。
なんだろう。嫌がらせを受けているのかもしれない。
Native Instrumentsが予備的破産手続きに入った、ってニュースを最初に見たのは、プリセット探しに疲れてベッドでゴロゴロしながらスマホ眺めてた時だった。
一瞬、寝ぼけて「NIS Americaか何か別のNIだろ」と思ってスルーしかけたけど、本文読んだら普通にBerlinのNative Instruments GmbHで、例のCharlottenburg地裁での予備的破産手続き(vorläufiges Insolvenzverfahren)開始って書いてあって、ちゃんと管財人の名前まで出てる。
あー、これマジのやつだ、ってなった。
30年DTMやってるけど、そんな見出しを見る日が来るとは思ってなかった
90年代末にCubase VSTいじり始めて、ソフトサンプラー黎明期からKontakt 1に飛びつき、Reaktorの意味不明な配線に挫折し、Traktorでクラブもどきのことをし、Maschine Mk1のパッドを叩き過ぎて一部反応悪くして、
Kompleteは気付いたら「アップグレード代が固定費」みたいになってた。
DTM 30年もやってると、「業界標準」って言葉を疑う癖がつくんだけど、それでもKontaktだけは本当に“事実上の標準”だった。
オーケストラ系の国内ベンダーも、同人の薄い本に付いてくるおまけ音源も、だいたいKontaktインストゥルメント前提。
で、その土台にしてた会社が、ある日突然「予備的破産」です、って。
「予備的破産だからセーフ」は、ユーザーの心には何のセーフにもならない
今の段階では「即死じゃなくて、延命しながら解体するか再構築するか見極めるフェーズ」だってことも、
管財人が付いた時点で経営陣の決定権はかなり縛られて、資産の売却とか事業単位での整理が現実的にテーブルに乗ってるってことも。
つまり、「もう崖から落ちてるんだけど、落ち方を調整する段階」に入ったってことだ。
でも、そんな法的な説明をどれだけ読んでも、日本のDTMユーザーのタイムラインは一瞬で「Kontaktどうなんの?」で埋まる。
「Traktor終わり?」とか「Maschine買おうか迷ってたけど様子見だな」とか。
あと、iZotopeとPlugin AllianceとBrainworxも同じグループだったことを今さら思い出して「RXまで巻き込まれるの…?」ってざわつく。
CDMだのGearnewsだのの海外記事は、「短期的にはサービス止まらない」「コアビジネスは健全で、拡大路線と買収で抱えた負債が原因ぽい」とか冷静に書いてる。
でも、30年かけて積み上げてきたプロジェクトファイルの左側で、Kontaktのアイコンがズラッと並んでる光景を見慣れてる身としては、
「はいはい短期的にはね、で、5年後の開けないプロジェクトは誰が責任取るの?」って話になる。
日本のDTM業界が食らう一番デカいダメージは、「安心感」が死ぬこと
日本のDTMって、良くも悪くも「とりあえずNI入れとけば大丈夫」文化があった。
それが一夜にして、「その“とりあえず”が一番とりあえずじゃなくなった」わけで。
国内の小さいデベロッパーにしても、多くはKontaktのフォーマット前提でビジネス組んでる。
自社でエンジン作る体力もないし、マルチプラットフォームのシンセを書ける人材もいない。
だから「Kontakt Player対応」ってラベルは、サポートとか互換性とか、ユーザーに対して「うちは大丈夫ですよ」っていう保証の看板でもあった。
その看板を貸してた本体がグラグラになったら、日本のサードパーティは一斉に「うちの音源、この先10年どう説明する?」ってところからやり直しになる。
特に日本は、教則本と専門学校と通信講座で「DTMの正解」を体系化するのが大好きな国だから、「カリキュラムの柱」がこんな形で揺れるのは、想像以上の衝撃になる。
「業界標準」の裏にあった投機的拡大のツケを、ユーザーが払うという理不尽。
今回の件で地味にムカつくのは、CDMや各メディアが「どうもプロダクトの売上がダメになったというより、拡大と高額買収で抱えた負債が原因ぽい」と書いてるところ。
ユーザー目線では、「何かよくわからんけど、あちこちのロゴが全部NIになっていく」くらいの話だった。
でも裏ではそのたびにでかい金が動き、その借金の最終的な“清算”に巻き込まれるのは、30年分のプロジェクトファイルを持ってる現場側。
日本のDTMユーザーは、円安だろうが税金上がろうがKompleteのアップグレード代をせっせと払い、
「もう使ってない音源もあるけど、将来の互換性のために一応アップグレードしておくか」と、実質サブスク状態で支えてきた。
その「互換性への保険料」が、まさか投機的なM&Aの反動で吹き飛ぶとは誰も思ってなかった。
30年DTMやってると、もう何社も見てきてる。
そのたびに、古いWindowsマシンを押し入れから引っ張り出して、
「この曲だけは何としてもステムを書き出しておかなきゃ」と夜中に凍ったUIと戦う。
今回も、多分そういう「最後のエクスポート祭り」が、日本中のスタジオと六畳間で静かに始まる。
国内ベンダーにとっては「巨大なチャンス」と「地獄の二択」が同時に来る
冷静に考えれば、これだけ巨大なプラットフォームが揺れた瞬間って、本来なら国内の開発者にとってはビッグチャンスでもある。
でも、日本のDTMマーケットって、そもそもそんなに大きくない。
NIレベルのプラットフォームを「じゃあ自分たちで作りなおそう」と思っても、開発費もマーケもサポートも全然追いつかない。
結果として、多くの国内ベンダーが直面するのは、だいたいこんな二択になる。
1. しばらく様子を見つつ「Kontakt前提ビジネス」を惰性で続ける
→ でもユーザーには「長期的な保証はできません」としか言えない
2. ここで腹をくくって自前エンジンか別フォーマットに大転換
どっちを選んでも、コストは跳ね上がる。
で、そのコストは結局、値上げか有償アップグレードか、何らかの形で日本のユーザーに跳ね返ってくる。
専門学校と「教える側」の人たちには地味に致命傷
もうひとつ、日本固有の問題として、専門学校と通信講座がある。
予備的破産のニュースが流れた翌日、どこかの専門学校で、講師にこう聞く学生は必ず出る。
「先生、Native Instrumentsって潰れるんですか?」
そこで本当のことを言えば、
「いや、今すぐ潰れるわけじゃないけど、将来のことはもう誰にも断言できない。数年のうちに、ブランドが分割されたり、別の会社に吸収されたり、最悪、一部の製品は開発終了になる可能性もある」
って話になる。
でも、授業としてはそんな不安定な話を延々するわけにもいかないから、「とりあえず今は気にせず学びなさい」と言うしかない。
こうして、「教える側は不安を隠しつつ、学生には良い顔をしなきゃいけない」という、いつもの構図がまたひとつ増える。
企業の戦略ミスと負債の処理を、教育現場が尻拭いするの、正直そろそろやめてほしい。
短期的な話をすると、日本のDTMショップと代理店はかなりキツい。
こういうところで一気に「様子見」が発動する。
ソフトはまだしも、ハードは「これから買うのは怖い」が一斉に駆け巡る。サポートがどうなるかわからないし、ファームウェアやドライバのアップデートが止まった瞬間、OSアップデートのタイミングで一気に文鎮になるリスクがあるから。
で、ユーザー側も、「このタイミングでKomplete Ultimateに上げるか」とか「Maschine Mk3に買い替えるか」とか、今までなら普通にポチってた決断に、急ブレーキをかける。
その「様子見」が、実際には「もう戻ってこない」ことも、30年見てくるとよくわかる。
こうして、ゆっくりと、でも確実に、NI周辺にあった「標準装備としての売上」が薄まっていく。
その余波はもちろん、国内ショップの売上にも降りかかるし、「DTMってまだ日本でビジネスとして行けるの?」って空気にもつながる。
それでもプロジェクトファイルは開けなきゃいけないし、音は鳴らさなきゃいけない
じゃあ30年選手として、何をするか。
正直、やることは地味で、ロマンのかけらもない。
(国内外問わず、Kontakt依存度を下げられる構成をゆっくり検討する)
これを、世界中の古参DTMおじさんとおばさんが、各自の狭い部屋で黙々とやる。
そういう、ものすごく個人的で、でもシステム全体としては巨大な「サイレント・マイグレーション」が、これから数年かけて進むことになる。
日本のDTM業界にとって、今回のNIの件が「激震」なのは、別に明日サービスが止まるかもしれないからじゃない。
30年かけて「ここに積み上げれば安全」と教えられてきた土台が、実は誰かの投機的拡大とレバレッジの上に乗っていただけだった、って事実を突きつけられたからだ。
その現実を見せられたあとで、次に「安心して積める場所」はどこなのか。
それをまた探し始めなきゃいけない、っていう意味で、今日という日は確かに、日本のDTMにとってひとつの「終わりの日」なんだと思う。
……とか真面目なことを書きつつ、さっきも普通にKontakt立ち上げてベース音色選んでた。
でも、このニュースを見た瞬間に、いつものKontaktのGUIが、急に“期限付きの借り物”みたいに見えたのもまた、事実だった。
あーあ
洗濯、シャワー、段ボールまとめて資源回収置き場に持ってく、PC発送
あー今日どれかやってれば楽だったのにとは思うけどしゃーないね
ちなみにきのうは夕方寝して夜に起きて1時か2時くらいにトライアルのかつ丼2パックとトマト缶1つ食っちゃったんだよね
かなり食いすぎ
まあお菓子とかカップ麺あればつい食べちゃう程度にはすいてるけど
今家にあるのはカレールウ、レトルトカレー、オートミール、トマト缶、鯖缶だもんなあ
オートミールにカレーってのもありだけどここ数日野菜くってねえからそろそろソロモン王食わねえと体がやばそう
chromeのタブ1500個以上開いてるのをブックマークに保存してそれをエクスポートするとこまではやったけど・・・
RAM16なのによーやっとったわ
パソコン工房でかったオナjモデルの奴、一時期また受注再開してたけど7マンも値上がりしてた上にRAMの増量カスタムできなくなってたもんなあ
5070tiももうのきなみ買えない感じだし
かっといてよかったわ
https://www.bengo4.com/c_1009/n_19783/
不同意性交等罪が「美人局」に利用されている?"法の欠陥"の実態…1000万円で示談も
っていうかまぁいつでもどこでもお金をせびる、誘ってくる女はいる。
おじさんともなると、そういうお誘い自体貴重だし、そもそも女に恥をかかせるわけにもいかないとか、据え膳食わぬは男の恥とか、まぁいろんな価値観もある。
その結果が美人局とか。
でも思い出してほしい。私たちはいつだってテクノロジーで、証拠を残してきた。
これまで100:0 はあんまりなかった。しかしドラレコがあればどうだ。動かぬ証拠である。こちらが0と証明する術ができたのだ。
訴えられたらどうするべきなのか。それはやはり証拠の提出である。
密室の中を暴くようなレコーディング技術は、つまりはハメ撮りになってしまう。
これはダメだ。
こんなのがまかり通るような世の中ではない。
ではどうするのか???
答えはSound logだ。
俺は兼ねてから作りたいアプリがある。一日の時間の使い方についてだ。
俺の仕事の仕方としては、notionで全体的なプロジェクトやタスクを整理しているのだが、
aiがnotionにプロジェクトを作成するし、そこからタスクを切り出し、締切を設定する。
そして、今日何をやるべきか、時間ができたら何からやるのか、優先順位をつけつつ指示してくる。
そして常にタイムスタンプを刻みながら、これをどのくらいの時間でやったなどのログをつけてくれる。
しかしだ。
仕事中はそれでいい。仕事中のことを徐々に最適化していくためにはそれでいい。
しかし、仕事以外の時間をどんどん最適化していくには、どうしたら良いものか。
その答えがsoundlogだ。
30分ずつの切り出し。
また、音声ないようによって、何をしていたのがどれくらいの時間あるのか など
会話している時間はどれくらいなのか。
移動時間はどれくらいなのか。
何時に寝て、いびきがどれくらい書いてという睡眠アプリはあっても、これはそれ以外の全てを記録し、統計をだしてくれる。
そうすることで、
例えば、性行為中、前戯はどんなもんか、女性の息から推測される感じ方の推移、ギシギシパンパンなっている音から、どれくらいの時間挿入しているのか。体位を何度かえたのか。
全ての統計を取ることができる。
当然。円盤を持ちかけられ、断った。パンパンしていないという音声的な証拠にもなる。
これは、基本的にはログを取るためのものなので、いちいち記録もしないが、
そのついでに、問題が起きたときの証拠を提出できる状態であることが望ましい。
ってことで誰か開発して。
俺?しないよ。半グレ怖いもん。
正確に言うとサービス自体は終わらないんだがWEB版がなくなってしまうのだ。
自分にとってはそのサービスはWEB版で使うのがメインだったので、実質使えなくなるに等しい。
いわゆる日記系アプリみたいなやつで、自分は使い分けとして最もプライベートな日記をそれでつけていた。
病院に行く予定とかはGoogleカレンダーに書いているが、症状や状態、様々な細かい記録、さらにその時々の自分の心情というのも赤裸々に書いている。
これらは病気の再発の際なんかに振り返りとしてとても大事な情報で、なくすわけにはいかないのだ。
ただまさか自分でも10年も使い続けるとは思ってなかったのであまり気にしてなかった。
病気についてもそこまで長い付き合いになるとは思ってなかったのだ。
今回のは不定期にしか使っていなかったこともあって油断していたかもしれない。確かにそこまでメジャーなサービスじゃないから終わる可能性はいつでもあったのだ。
ただサービスそのものはなくならないが、WEB版がなくなるというのは想定外だった。これも時代の流れなんだろうなと思う。
内容的に重いテキストが多いが、今から投稿ごとにコピペして移していかないといけない。
とりあえず最近使ってるObsidianに新しい倉庫を作ってそこにアーカイブしようと思うが、気が重い。
不定期とはいえ、10年近くの闘病日記をどこかに移さないといけない。
コピペでやるしかないので当然色んなことを思い出すだろう。最近は調子良いのでいい機会でもあると考えようと思う。
考えてみれば、ネット上にあるデータでほんとに重要なものというのは自分の場合少ないなと思う。
Googleドライブにあるデータ、Gmailの中身などはさすがになくなると困るが、これらはバックアップ体勢があるので最悪なんとかなると思う。
その他でいえばどのサービスのものも、別に最悪なくなってもいいかって感じの情報しかない。
EvernoteからNotionに移行した時も、もうこれらいらんなあと思いながらだいぶ断捨離とかしていった。
10年単位とかで見ればもはやあまり意味のない情報が多かったのだ。
そうやって考えると、日記というものへの考え方が変わってきた。
こんなことを考えていたということより、その日はこんなものを食べていたということのほうが記録として重要な気がしてきている。
自分が過去こんな考え方をしていたとか、誰かに対してこんな風に思っていたとか、振り返る分にはそんなのどうでもいいなと思う。
それよりその頃こんなもん食ってたんだとか、ここに行ったんだなとか、そういう情報のほうが情緒にくるし、なんか色々思い出せそうだ。
Audacityは、Windows、macOS、Linuxで利用可能な、オープンソースの無料マルチトラックオーディオエディター兼レコーダーです。ライブオーディオの録音、トラック編集、ミキシング、エフェクトの適用など、幅広い用途で使用されています。Audacityは、マイクまたはミキサーを使用した録音、MP3、WAV、AIFF、FLACなど、様々な形式のオーディオファイルのインポートとエクスポートをサポートしています。カット、トリミング、ミキシングなどの直感的な編集ツールに加え、ノイズ除去、イコライゼーション、ピッチとテンポの調整、ディストーション、エコー、リバーブなどの高度な機能も備えています。また、追加のオーディオエフェクトや分析のための豊富なプラグイン拡張機能もサポートしています。
バックグラウンドノイズを低減し、音質を向上させる機能
Audacity はオーディオ編集と録音において強力なツールですが、完全なデジタル・オーディオ・ワークステーション (DAW) ではありません。MIDI 編集、バーチャルインストゥルメント、その他の高度な DAW 機能は備えていません。
どちらもそこそこの期間使い続けてるんだけど、どちらも良いとこ悪いとこあって難しい。
最初は日々雑多なあれこれはobsidianに書き殴り、最終的にnotionにまとめていくというスタイルにしたかったんだが、
必ずしもnotion側にまとめなおす必要なくね?というカテゴリもそれなりにあるのだ。
いったんそれぞれに良いと思ってることを整理してみると
どちらもそこまで深堀りして使えてはないので浅いレベルではあるけど、Notionについてはやっぱりデータベースにできるのは大きい。
自分は仕事関連の資料やら、ブックマーク、仕事で使うツール、見た映画や本などの感想などデータベースにしてるが、
ブックマークレットとの組み合わせでネットの情報を溜め込んでいく作業はとても快適だ。
一方でObsidianにはデータベースはないが、ノート単位で繋がっていくという独特な仕組みにさえ慣れてしまえば、
それぞれのノートの関連性を結びつけていくということはできるので、データベース的に使うこともやろうと思えばできると思う。
特にAIとの連携が強まっていくと、Obsidianの中がとっ散らかっていても、それをAIに整理してもらうことでまとめやすくなっていきそうだ。
強いて言えばそのまとめていく作業自体が、自分の頭の中にすりこむ工程として必要なのではという気もするので、
結局どこまでAI強化すべきかという検討は必要そうには思ってもいるんだけど。
Obsidianはなかなか硬派なので、ノートとして見た目をよくするとか見やすくするといった点は基本的にプラグインに頼ることになる。
そしてソフトの性質上、画像などの扱いについてもやや微妙に感じる。
Notionのほうはデータベースに溜まった情報を、他で使うためにエクスポートする手段が意外とあまりなくて、
(APIレベルで使えばそんなことないのかもだが)そうするとNotionにあまり溜め込みすぎるのはよくないかもなあと考えてたりはする。
結局答えが出ないままどっちも半端に使い続けてるんだが、いい加減どっちを最終段にするか決めないとデータばかりが増えていってしまう・・
当方AI系のITベンチャーを創業した20代。以降はIT起業向けの内容となる。
試算表がfreeeのエクスポート機能で出力して事業計画表はテンプレートに従った。ChatGPTに詳細な試算は手伝ってもらって書いた。
書類を持参して窓口へ。現場で1時間ほど事業の事や代表個人のこと、取引先会社名や前職会社名等について聞かれた。
創業まもなかったので代表個人の銀行口座の明細も必要らしい。審査結果の電話は来週中に来るらしい。
朝速達で書類が届くと同時に電話があった。融資に通ったとのこと。
後は電子署名して終了。
金利が1.5%前後と市場比で非常にお得なので、これから事業を成長させたい場合は借りるべき。返済期間は最大限伸ばして申請するべき。
複合的な要素はあるが、およそ月の売上の大体3〜5倍位までは借りれるらしい。もちろん融資総額が小さいほど借りやすい。当方は売上の2倍程度を借り入れた。
ITで起業する場合は、まずは自力で最低でも100万円/月程度の売上を立てることができたら公庫融資で500万~1,000万円、創業者保証なし、返済7年で借りるのがベスト。
返済期間が長いと他行の融資や追加融資が受けにくくなるリスクがあるが、公庫融資は元金一括括返済が可能なのであまり問題にはならない。最悪借り換えもできる。金利が1.5%前後と市場比で非常にお得なので、これから事業を成長させたい場合は借りるべき。調達する皆さんは少なくとも7年程度にしておくことをお勧めする。末置き期間はあまり必要なくて、設備投資が必要なビジネスではないなら初月から返済を始めてしまった方が良い。
私の場合は早めに先行投資をして成長軌道に載せるための融資なので、返済期間は5年に設定したが次に同じことをするなら7年で申請すると思う。
「背景にある心理状態について分析して」とでも書けば、どんな投稿でもそれなりに分析してくれるよ
書き込みならなんでもいいだろうから、twitterの投稿を持ってきても良いかもよ?
次はこれで出てきたものを読み込ませてみようかと思う
ステップ 1
アイコンをクリックし、メニューから [アカウント] を選択してアカウント設定画面に移動します。
ステップ 2
ステップ 3
[データのアーカイブをダウンロード] でパスワードを入力し、[確認する] をクリックします。
ステップ 4
[コードを送信] をクリックして、登録されているメールアドレスや電話番号にコードを送信し、本人確認を行います。電子メールアドレスまたは電話番号が登録されていない場合は、アカウント情報ページにリダイレクトされます。
ステップ 5
メールアドレスまたは電話番号に送られてきたコードを入力します。
ステップ 6
本人確認を行ったら、[データをリクエスト] ボタンをクリックします。TwitterアカウントがPeriscopeと連携されている場合、Periscope上にあるPeriscopeの全データの履歴を直接リクエストすることができます。
ステップ 7
ダウンロードの準備ができたら、登録されているメールアドレスにメールを送信するか、アプリがインストールされていればプッシュ通知を送信します。設定画面からは [データをダウンロード] セクションにある [データをダウンロード] ボタンをクリックすればダウンロードが可能です。
ステップ 8
メールの受信後、Twitterアカウントにログインした状態で [ダウンロード] ボタンをクリックし、ツイート履歴の.zipファイルをダウンロードします。
先日気まぐれでChatGPT Plusに登録し、o1を試してみたところ、自分の専門分野ですら自分より遥かに賢いことが分かり、驚愕した。
今日はちょうど古くなったメモツールをObsidianへ移行するタイミングだったため、代休とChatGPT Plusを有効活用しようと思い、
ブックマークのデータを使って試してみた。データ量は約19年分で6MBほど。タグの統合作業など手作業の工程もあり、
それなりに長い工程(数時間)かかったが、自分が望んでいた結果を得ることができ、正直驚いた。
以下はChatGPTによる報告書
---
はてなブックマークのデータを有効活用するため、これをObsidianでのメモ管理システムと統合して、記録と検索性を向上させる。
> アプリ内のデータかバックアップしたのを自分でダウンロードしてテキスト化する方法ないかなあ/できたわ。設定→位置→タイムライン→タイムラインのエクスポートでjson化可能。あとは誰かが処理系を作るだけだ!
https://b.hatena.ne.jp/entry/4766225990155446401/comment/punychan
これを使えばXXXX-XX-XX.kml 形式で日付別のタイムラインデータを出力できる(ChatGPT製)。
KMLファイルはGoogle Earth Proなどで開くことが可能で、ビジュアルとして行動履歴を見ることができる。
ただ、以前GoogleMapsタイムラインが吐いていたKMLではPlacemarkという項目に直接建物名などが書かれていたが、現在出力されているjsonではplaceIdというものに変更されていて具体的な名前がわからない。
placeIdを実際の建物名などに変換するにはGoogle Maps API の Place Details APIを使うしかないようだが、膨大なリクエスト(有料)をしなければならず非現実的。
もともと欧州のプライバシー関係の規制のせいでGoogleのサーバ上でのタイムライン履歴が行われなくなったのが今回の問題の起点。
ユーザーの自由を尊重するなら、個人が行動履歴を自己管理する自由ももっと尊重してもらいたいものだな、と思った。
import json
import os
from xml.etree.ElementTree import Element, SubElement, tostring
from xml.dom.minidom import parseString
with open("タイムライン.json", "r", encoding="utf-8") as f:
data = json.load(f)
output_folder = "kml_output"
os.makedirs(output_folder, exist_ok=True)
# `semanticSegments` に移動データが含まれている
if "semanticSegments" in data:
date_segments = {} # 日付ごとにデータをまとめる辞書
for segment in data["semanticSegments"]:
# `startTime` から日付部分(YYYY-MM-DD)を抽出
if "startTime" in segment:
date = segment["startTime"].split("T")[0]
date_segments[date].append(segment)
for date, segments in date_segments.items():
kml = Element("kml", xmlns="http://www.opengis.net/kml/2.2")
document = SubElement(kml, "Document")
for segment in segments:
for point in segment["timelinePath"]:
coords = point["point"].replace("°", "") # 度記号を削除
time = point.get("time", "Unknown Time")
# Placemarkを作成
placemark = SubElement(document, "Placemark")
# タイムスタンプ
timestamp = SubElement(placemark, "TimeStamp")
when = SubElement(timestamp, "when")
# 座標
point_element = SubElement(placemark, "Point")
coordinates = SubElement(point_element, "coordinates")
lat, lon = coords.split(", ")
coordinates.text = f"{lon},{lat},0" # KML形式: lon,lat,alt
kml_str = tostring(kml, encoding="utf-8")
formatted_kml = parseString(kml_str).toprettyxml(indent=" ")
kml_filename = os.path.join(output_folder, f"{date}.kml")
過去の私の書いた増田を振り返って保存してデータをこしらえている最中あともう少しで全部到達できそうな勢いの最中にジューシーなみずみずしい餡子の詰まった最中を食べつつ私は一服するの。
さすがに、
内容を全く覚えていない忘れちゃってるものもあるのね。
あれ?私この時書いた増田カレーぶっかけられてるけどそんなことあったっけ?って
読み進めていったら見た夢のことで、
なんだ夢かーい!って
夢グループも安いと言わざるを得ない感じで安請け合いで読み進めていった自分の増田にすら騙されてしまうと言う事態。
なんか
ある程度のことを覚えている境目っていうのがどうやらあるみたいで、
それ以前の増田と言えば
全く覚えてない忘れているのよ。
だから、
うっかりお部屋の掃除を開始し始めて
なんか積んであった新聞や本をめくって読み込んじゃうみたいな感じで、
これなんかいちいち全部目を通して読んでいたらスピードが出ないし
ここはどんどんとんとんと進めていきたいところ!
これなんでどんな心境だったんだろう?って思い起こしても思い出せずに
なんかよくもまあこんなこと書いていたわねって自分でも思っちゃうのよね。
初期の頃はあんまりほとんど全部私書いた内容のこと忘れちゃってるみたい。
なので、
誰かの増田を読んでいるようではて?って謎に思う内容もなきにしもあらず的なこともあるのね。
でも作業は進めていかないといけない佳境にそろそろ入ってきたので、
実質あともうちょっと!ってところよ。
膨大な数にのぼりまくりまくりすてぃーな私の増田は65535ページまで遡ってもまだ先が見れない。
けど
もうちょっとよ。
なんか揃う系のミッションでポッシブル完成させた喜びをきっと味わえるはずよ。
もうさ、
やっぱり全部集めてなんぼよねってそう思いだしたの。
私の書き出しのところを自ら追求して揃えたいところなのよね。
あとはデータが揃えば、
EPUBのソースをAIにこしらえてもらってって流れを浸透させるつもりなので、
とかやってて余所見してたら
つ、ついにNintendo Switch 2発表じゃない!
私もお小遣い貯めておかなくちゃって思ったわ。
多分、
EPUBが先かNintendo Switch 2が先か?
どちらかってかも知れないわ!
いや分からないけれど。
でもまた先にSwitch 2が出ちゃって買えちゃって遊んじゃってってなると
また頓挫しちゃいそうな予感なので、
自らを急かしたいところよ。
うふふ。
うーん
私的にはこれなら単体具材が強力に圧着されているサンドイッチが良いし、
でもこのタマゴハムレタスサンドの良さも見付けてみたいものだわ。
なにか興味を持って見てみるときっと美味しく味わえる秘訣があるかも知れないわ!
ホッツ白湯ウォーラーこの時期起きてから飲むのには欠かせないホッツであると共に
好評で絶好調なタイマー運用で朝に沸いている飲み頃温度の70℃のホッツ白湯は、
朝の温活に捗りまくるし、
すいすいすいようび~
今日も頑張りましょう!