はてなキーワード: GUIとは
interoperable-europe.ec.europa.eu/collection/sipg/news/instant-v-bucks-free-generator-fortnite-codes-list-ultimate-gui
interoperable-europe.ec.europa.eu/collection/sipg/news/easy-way-fortnite-v-bucks-codes-free-ultimate-guide-2025
interoperable-europe.ec.europa.eu/collection/sipg/news/new-codes-13500-v-bucks-free-fortnite-epic-games-2025
現代のPC業界におけるアップグレードサイクルは、企業が自らの利益を守るために意図的に仕組んだものである。企業は新OSをリリースするたびに、実際には十分に機能するパソコンに対して、あたかも「古い」ものであるかのようなレッテルを貼り、消費者に新しいパソコンへの買い替えを強いる。この現象は、人類学者のデヴィッド・グレーバーが「無意味な仕事(ブルシット・ジョブ)」について述べた論理と酷似している。すなわち、まるで誰かが、全員を働かせ続けるためだけに無意味な仕事を作り出しているかのようである。企業は、アップグレードに伴うマーケティング、サポート、管理などの無意味な業務を増やすことにより、自らの既存の富を増やす(レント・シーキング)戦略を実行しているのである。
ジョン・メイナード・ケインズがかつて、技術進歩によって15時間労働週が実現すると予言したにもかかわらず、現実にはむしろ技術は我々全員をより多く働かせるために利用される結果となった。これは、PC業界においても同様である。最新のOSを導入するための高いハードウェア要件(例えばTPM 2.0必須や最新CPUの搭載など)は、技術的な制約ではなく、企業が自らの利益を最大化するために設定されたものである。こうして、技術的には十分に性能を発揮できるパソコンが、企業の都合であたかも使えない古いものとして扱われる。その結果、消費者は不要な買い替えを余儀なくされ、企業はそのたびに新たな収益を得るとともに、無意味な仕事が膨らんでいく。
グレーバーが示したように、現代社会は、まるで誰かが無意味な仕事を作り出して、みんなを働かせ続けるためだけのシステムに陥っている。実際、PCのアップグレードサイクルによって、企業のマーケティング担当者、サポートスタッフ、管理部門といった、もともと必要なかったであろう職務が次々と生み出されている。これらのブルシット・ジョブは、社会全体の資源を無駄にし、経済の効率性を低下させる原因となっている。また、このような戦略は、消費者が本来持つべきコンピューティングの自由をも奪っている。実際のところ、パソコンは何年も使い続けることが可能であり、単に最新OSに対応しなくなったからといって、急いで新しいパソコンに買い替える必要はないのである。
さらに、こうした企業の戦略はレント・シーキングの一環である。レント・シーキングとは、新たな富を生み出すことなく、社会的または政治的な環境を操作することで、既存の富を増やす行為である。企業は、最新OSや新型パソコンの必要性を強調することで、消費者に無駄な出費を強い、結果としてその余分な費用を自らの利益として取り込んでいるのである。このような手法は、資源の誤配分や競争の阻害、さらには所得格差の拡大など、社会全体にとって望ましくない影響を及ぼすものである。
この状況に対して、ひとつの合理的な対策として注目されるのがLinuxである。Linuxは、最新OSが要求するような無意味なハードウェアスペックに縛られることなく、古いパソコンでも十分な性能を発揮する。例えば、中古のThinkPadにLinuxをインストールすれば、Web閲覧、文書作成、プログラミング、動画視聴などの基本的な作業において、最新のパソコンと大差なく使うことが可能である。さらに、かつて「デスクトップLinuxは使いにくい」と言われたが、現代のLinuxディストリビューションはGUIが整備され、初心者でも容易に扱えるレベルにまで進化している。これにより、企業が仕掛ける「捏造された古さ」や無意味なアップグレードサイクルから解放され、消費者は余計な出費や無意味な労働負担を回避することができる。
総じて、現代のPC業界は、企業が自らの利益を守るために、必要以上のアップグレードを強制し、その結果としてブルシット・ジョブを生み出し、レント・シーキングを通じて無駄な出費を消費者に負担させる仕組みとなっている。私たちは、この現状を冷静に理解し、企業の策略に惑わされることなく、Linuxのようなオープンなソリューションを選択することで、本来あるべきコンピューティングの自由と効率を取り戻すべきである。
個人での利用ではやっぱそうじゃないの。あと動画生成や萌テキスト作成
SONY公式でAIカメラ作ってみようっていうページ公開してるし、パーツ(IMX500)を売ってるやで
https://developer.aitrios.sony-semicon.com/en/raspberrypi-ai-camera
あとラズパイじゃなくてこんなのもある
https://makezine.jp/blog/2022/02/spresense.html
企業の動向云々なら半導体事業持ってるし自社AIプラットフォーム持ってるのに
SONY は相変わらずセグメント制でーす❤︎やってるわね
日立は Lumada で同じ方向見てんのにね
そもそも SONY も半導体事業持ってるし、そもそも SONY も AIプラットフォームも持ってるんだぞ
AITRIOS な?セブンとかのデジタルサイネージで使われているそうな
ほんで、SONY公式でAIカメラ作ってみようっていうページ公開してるし、パーツ(IMX500)を売ってるやで
https://developer.aitrios.sony-semicon.com/en/raspberrypi-ai-camera
あとラズパイじゃなくてこんなのもある
https://makezine.jp/blog/2022/02/spresense.html
で、部品屋さんではなくて、強力なエコシステムを築いてることが重要なんだけど、
SONY のムーブはいつもの部品屋さんに見えるよね。センサーもすごい技術を持ってるのにね
せっかくPS っていうプラットフォームを持っているのに、MESH とか Felica とか金融部門あるのに、セグメント制だぞ❤︎とか言ってないで、
長期的なエコシステムの構築頑張れよって思うが、Panasonic みたいになる未来しか見えない(ただの保険屋/銀行になって技術部門捨てそう)
あと、YAMAHA ですらイベント出席してるのに SONY さ・・・って気持ちになる
俺も書くわ。だから他のやつも書け!
ちなみにSurgeのUIは数年前のアップデート以来モダンなスキンを使えるようになったので、以前ほどWindows2000みたいな見た目じゃなくなってる。
シンセの操作覚えたい人はまずこれで覚えるといいと思う。Synth1はノブが多すぎる。
2VCO+noise、1VCF(2+4poleLPF/2pole BPF) 、1LFO、2ENVにRingmod、Sync、PWM、Unison、と「多彩な音作りの最小限」を、シンプルで綺麗なGUIと低CPU負担で実現している。
音はアナログ的なゆらぎを微妙に加えてたりエイリアスが出なかったりフィルタがいい感じだったり非常に美味しい。
目立たなくていいちょっとしたシンセサウンドを作るにはこれくらい機能が絞られてる方が早く済む。
機能アップしたV3もあるが、良くも悪くも他のソフトシンセに近づいており、出来ることが増えた分絞り込まれた良さは減った。
このシンセだけで作られた曲たち。
https://sites.google.com/site/kvrosc/2011/osc-33-charlatan
Oberheim OB-Xのエミュレート。個人(小規模?)開発者がフリー公開したのを、有名VSTメーカーdiscodspが買い取った。フリーのV2と有償のV3があるが、実機にある機能はほぼV2で完成されてる。
機能追加するだけでdiscodspが売れるくらいなのでクソ音がいい。
Korg mono/polyやDW-8000のようなレトロシンセマニアなら知ってるメジャーなマイナーシンセから、KORG LambdaとかArp Omniとかマニアックシンセまでの再現。「誰も再現しようとしないシンセを俺達が再現する」という意思を感じる。音の正確な再現というよりは「それっぽさ」の再現だが、マイナーシンセの操作性と「ぽい音」が手に入るだけで十分ありがたい。
2000-2010年代の花形Access Virusの完全エミュレーター。
どうにかして合法的な方法でVirusのファームウェアを入手する必要があるが(実機を持っていないのにサポートページからダウンロードしてはいけない)、完全再現と言っていい出音にリッチなGUI。実機のプリセットも使える。
ここからエフェクト。Serumで有名なXferの小品。パイオニアのDJミキサーを再現しており、ノブ50%以下でローパス、50%以上でハイパス。
音に個性はないが十分良く、オートメーション一本で上も下も削れる上に、50%付近ではレゾナンス含めフィルタがオフになるのがよい。
(この機能がないと、ローパスをレゾナンス上げて開ききった際に高音が耳に刺さる場合がある)
フリーVST界の神メーカー同士がコラボした、特定の機種の再現でないアナログ系の3バンドイコライザ。作りが丁寧でEQカーブが本当に音楽的に気持ちいい。
響きを破綻させないまま気持ちよくブーストできる希少なEQ。機能強化有料版もある。
貴重なフリーのシマーリバーブ。Valhallaの有償プラグインに比べたら劣るだろうが十分音はよい。
その多分一番有名なリバーブVSTメーカーValhallaのフリーVST。実験的なリバーブアルゴリズムが大量にある。変かつ音がいいリバーブが欲しいときはこれ。
練習用ソフトぐらいはいくらでも転がっているが、指の位置が把握できるものが良い
サーバー運用する上ではGUIに頼れないことが多いため、noxで使えるエディタをマスターしろ
ここにきてようやくプログラミング言語だ
まず共通知識としてHTML,CSS,JavaScriptぐらいは知っておいたほうが良いだろう
あとはどんなプログラマーを目指すかに依るが、組み込み系ならC言語、Web系ならphpやpython、機械学習ならpythonやRを学べ
シェルスクリプトは便利だから、bashをマスターするのも望ましい
要は効率的に処理を書ける必要があるが、LeetCodeやAtCoderで基本的な問題集を解けるようになれ
例えばpythonプログラマーなら、numpy, scipy, scikit-learnなどのライブラリのドキュメントを読めるようになれ
あるいはElasticsearchを使わなければならなくなったときに、ドキュメントを読んで操作できるようになれ
ドキュメントを読む経験が増えれば、新しく何かをやるときにすぐに着手できるようになる
AWSを有料で勉強するのはキツイので、就職後に先輩から学ぶか、あるいは認定試験を本やオンライン講座で勉強するのでもいいだろう
バージョン管理システムは知っておくべき知識だ
いわば、ソースコードの巨大なUndo, Redoみたいなもんだ
パスワードをどう管理すればいいのか、ネットワークセキュリティの仕組み、など基本的なセキュリティは学んどいたほうが良い
クリーンコードに関する書籍はたくさんあるので、時間があるときに読んでおけ
だって、どのメーカーのマシン買ったってWindowsマシンはほぼ同じ
どのメーカーのMSXマシン買ったってほぼ同じ、まあYAMAHAとかは差別化してた気がするけど、
差別化できないならメリットないよね、ってMSX帝国?は崩壊した
あの変態性の方向を変えればX68000やFM-TOWNSぐらいは行けたのに、3DO REALとかと組んじゃう辺りが松下社員っぽいんだよなw
でも、時代はもう逆だよね
だって、Windows同士だったら問題ないのに、Macにファイル持ってったらどうしてこうなるの?とか、その逆とかあるわけで、
GUIとかだって、Windowsは保守的過ぎて、スタートボタンなくしただけで発狂するんだもん
カーネルとか中身をごっそり書き換えて、素晴らしいWindowsになりました、でもスタートボタンがない、となったら、
ユーザーはソフトウェアの中身なんて知ったことか、スタートボタンを出せ、左下に出せ、ってなるんだもんな
Macも同じで、メニューは上にしろ、右上に寄せろ、でもウィンドウのボタンは左上でもいいよね?!って流石に20年、30年Mac OS Xユーザーやってた俺もアホかwと思っちゃったけどさ…
もう、みんな外観、GUIしか眺めてないし、その差別化も求めてない
すべてがWindows95みたいになればいいと思ってる
言われた話だと、定時出勤とかなんだよね、評価されるのは…
安定した勤務態度が優先されて、能力はまったく評価されない…😟
障害者には仕事は適当に低いレベルのものを渡すから、とにかく勤務態度が安定していて、波風立てないでくれ、みたいな感じ…
効率化するためのちょっとしたスクリプトだろうが、コードなんでもガリガリ書きますよ、みたいなのは評価されなかった
障害者雇用で躍起になってたときは、まだコード書く意欲があったけど、もうそれも失せてしまった
ChatGPTとかの登場も大きかった
生成AIのことは論文レベルで、どんなことができそう、というのは漠然と知ってたけど、
こうも急激に一気に総合力で実用化されるとは自分は想像してなかった
今となっては、テレビでも自分の両親みたいなITリテラシーが低い人でも普通にAIを使ってるし、
学校の教員とか、小学生でさえAIを、それこそ自分なんかより使いこなしてる可能性がある
いわゆるコマンドプロンプトとか、terminalが使えることが意味があった時代があって、
それがGUIになって、CUIが使えない人でもできるようになって、生成AIのプロンプトは更に人間寄りのUIということなんだろう
そのうち、コマンドプロンプトや端末エミュ経由でやってたこと、というかシェルというべきか、
その辺のレイヤーがAIのプロンプトっぽいものに置き換わる日は近いと思ってる
こうなってくると、プログラマーとか、ITリテラシーが高いみたいなアドバンテージは急速に失われていくだろう
社会の方向性としては正しいけど、アドバンテージがあることで仕事にしていた人たちの意味はなくなっていくわけだ
プログラムを書くこと、少なくとも自分が書くことは社会に必要とされてないわけだから、
もう仕事は自分のできる範囲であればいいが、何でもいいし、定時出勤だけが評価されるような仕事でももういいかな、とは思ってる
思ってるけど、それでも厳しいね、やっぱり年齢なんだろうね…😟
ニッコマレベルのバカ大学でもなんとなくペタペタ触って遊んでる研究室があるらしいので、あと10年もすればAI絵師と同じレベルで素人のオッサンたちによる趣味としてBMI研究が進むことだろう。
出力するだけのBMIなんてPCにフットペダルを追加する程度のレベルの進歩しか出来ないと思う。
やはり入力だ。
電極ぶっ刺し型は事故のリスクが高いことを考えると、ペースメーカーのようなものを埋め込む形にするほうが安全なのか?
それでも脳みそにそんなものをわざわざ入れる手術をすることがリスキーだ。
割れた頭蓋骨を補修するためにボルトをぶっ刺すのとはリスクのレベルが全然違う。
SFなんかじゃナノマシンが使われているが、ああいうのって使い古した後の古い奴はどうやって捨てるつもりなんだろう。
うむ。
あと20年で出来たら凄い早いと言っていいだろうな。
50年かかっても無理かも。
出力型のBMIについては50年後には流石に実現しているだろうが、そのフィードバックは従来のGUIで終わりになりそうではある。
むしろ、視覚・聴覚・痛覚あたりの神経に対して何らかの入力拡張が出来るような仕組みを作ったほうが手っ取り早い可能性さえある。
たとえば人間は文章を読んでいる時にそこに記載されている物体や情景について視覚的なイメージを脳内に形成することが出来るわけだが、脳みそを直接弄らずにこの機能にアクセス出来るルートを作ってそこに視覚情報を流す形なら脳を焼き切る心配はかなり減るんじゃないだろうか?
重要なのは「今既に人体が持っている情報系を拡張させるような形で入力信号を得られるような仕組みに振れたい」ということなのだ。
いっそのこと睡眠学習的なやり方で人間の感覚を拡張さえてしまうとかもありかも知れないな。
たとえば点字みたいなものをもっと細かくしたような情報を体の特定の部位から得ることが出来るように人体に学習させれば……ブツブツ……
Immersive Translateっていう翻訳ツールというかブラウザ拡張機能が便利すぎてヤバい
耳コピしながら手で打ってると発狂しそうなので、昨日から便利そうな道具探してるけど、よくわからん
あっても使い方がわからん
というか、音楽関係のソフトウェアはなんでこう使い方がよく分からんのが多いんや、GUIのデザインには以上に凝るくせに使い勝手が最悪なのはなんなんや?
YAMAHAのTHR5のあのソフトもなんなん?GUIを全部手で描画しないと気が済まんのか?
普通にWin32のGUI使うのイヤにしても、もっとこうなんかあるやろ…😟
あと、便利そうなプラグインの体験版を使おうとするたびに、独自のライセンス管理のソフトインストールさせられたり、なんか色々面倒、雑多なアカウント増えるし
もう、曲の音声丸々入れたら、楽譜がピーガタガタタ…とか出力される機械ってないの?
教えてよ、ドラえもん…😟
これまでいろいろな開発環境を使ってきたけど、Android Studioは本当にダメだ。
別途Javaの環境も構築しなきゃいけないし、おまけにJavaのバージョンによってはAndroid Studioとの相性が悪くてエラーが出ることも多い。
最初から最低限必要なものは揃えてくれればいいのに、後からどんどん障害物が出てくるから本当にイライラする。
アプリをリリースするためには署名が必要なんだけど、これがまた本当に面倒。
Android Studioには「キーを生成する」機能があるけど、これが直感的じゃない。
手順を調べるのに何時間も費やしたことか。コマンドラインからキーを生成するのか、GUIでやるのか、どっちにしても「なぜこんなに複雑にするのか」と思う。誰が得するんだ、この面倒くささは。
が、これまた問題が出てくる。ビルド時にエラーが出ることが多い。
何が悪いのか全然分からないし、エラーメッセージもわけがわからない。
ググって出てくる情報も正解とは限らない。結局時間だけが無駄に過ぎていく。無限ループに入った気分。
こうやってひたすら環境構築と闘ってきたわけだが、実際にアプリ開発に入ると今度はAPIの変更やライブラリの依存関係でまた地獄が待っている。
新しいバージョンが出るたびに、対応しなきゃいけないことが山積みで、これをやっていると「何のためにこんな苦労をしているのか・・・」と思わずにはいられない。
結局Android Studioを使っていると常に試行錯誤の連続で、楽しいというよりはストレスがたまるだけ。
正直、他の言語やフレームワークに目を向けようかとも思ったこともある。
React NativeやFlutterなんかは環境構築がスムーズで、すぐに開発に入れる印象がある。
なのにAndroid Studioに戻ってくるのは、Androidの市場の広さが魅力的だからだろうか。
でも何度もこの環境で悩まされると、本当に心が折れそうになる。
転職でJTCに入ったが配属がDX推進部だった。ずっと上流から下流までシステム開発に携わってきたので仕事は温いがそれ以上にローコードやノーコードツールに危機感を感じ鬱になりそう
ちょっと前は苦手だったデータ加工も今じゃGUIで簡単にタスクに出来るのでデータをS3に置けば勝手に集計してBIツールで見やすく出来る
それをS3をOnedrive程度と思ってるitパスポートも持ってない社員が得意気に言ってるのを聞いた時何か心が折れた
面倒なデータ取得とかは他部署だしちゃんと業務も分かれてるしDXとしても理想的な流れだと思う。自分も学べば良いと思うが前の仕事でBIツール導入にも携わったので何となくの機能と限界は分かっているし、今はツールの組み合わせで限界もなくなってきている。サーバレスすらもう古い。でかい会社なので利用料金高騰でツール終了もたぶん無いだろう
今後はマイクロサービス化も進むからバックエンドは最小でローコードやノーコードで作られたフロントでデータが入り、それをローコードやノーコードで連携し、ローコードやノーコードで取得し、ローコードやノーコードで表示分析する時、ごく一部のシステムエンジニア以外は不要になるよね
APIとかネットワークとか学んでも活かせるのはローコードツール作ってる会社のエンジニアくらいで大半は無駄な知識持った無能に成り下がるよね
金のない中小とかには仕事あるだろうけど給与減るし、このままPythonとかwwwって笑われながらどんどん要望に合わせた自動化タスク作るのかと思うとIPAやベンダーの資格すら憎らしくなってきた。今はMSのツール資格とSalesfarceよ。AWSのとか使えね
初代プリキュアは初回一発でコードが当てられるのに、なんでだろう
なんか、コードが当てられる曲と、当てられないタイプの曲がある気がする
少なくとも、自分は耳は駄目な方だと思っているので、ベースギターのような音がない曲とかはかなりアウト、つらい
伴奏のベース音を地道に読むしかない、でもベースがあれば簡単である
問題はベースギターは低周波、低音域であるため、プロでも聴き取りづらいことがあるのである
しかし、今はAI技術も相まって、奇麗に原曲をパートに分けることができる
分けるツールも数多くあるが、Meta社が公開してるものがオープンソースで無償で一番よいであろう
それを呼び出すGUIツールも存在するので、そちらを利用した方が簡単であろう
規約上良いのか怪しいが、検索ワードを入れるとYouTube上の楽曲が表示され、そこからパート分けしたいものをクリック一発で選べるようになっている
さて、比較的奇麗なドラムやベース音が取り出せるようになっただけでも、大昔に比べれば快挙であろうが、私はこのパート分解した音声データをそのままDAWに貼り付ける
ちなみに、私の現在のDAWはStudio Oneである
貼り付けたベースのトラックのトランスポーズ?だったかを0から12に変更すればオクターブが1つ上がる
オクターブは2つまで上げられるみたい、でもオクターブ1つがちょうどいい
あとは短音でベースがなくともギターで真似していけばいいし、打ち込みのトラックのピアノロールに打ち込んでいくのもいいだろう
原曲の音声を使うのはYouTubeでは厳密には規約違反であり、違法であるはずだが、すべてを聴き取って打ち込み、楽器演奏を録音したコピー演奏は許されているはずである
これぐらいの簡単な曲であれば、ベースの音をそのままパワーコードにするだけで、ほぼなんちゃってメタルバージョンのできあがりである
最近の日本の楽曲は、異常にコード進行が複雑で、頻繁なものが増えてる
そうなるとテンションの違いなどがかなり顕著に意味を持ってくるので、パワーコードにしてしまったら、そのニュアンスがまったく死んでしまい、意味がなくなってしまう
それから、ベースの音=コードのルート音みたいな安直なパターンからも外れやすくなるので、そこは注意する必要があろう