はてなキーワード: 演算とは
絵は思想なのです、とはじめにお断りしておきます。というのは…
絵は脳が捉えた様子を描くんです。
(それ以外を描くことは、でたらめです。)
世界には、どんなに目を凝らしても輪郭線なんか物理的には存在しないのに、です。
色相が異なるから、陰影がシャープに変化するから、みんなそうしているから、あるいは、なんとなく?
この自問自答こそ、1行目で「絵は思想」と申し上げたものです。
そんな感じで3週間ほど経った頃、もう一度スレを立ててください。
といっても、もう一度あなたとここでお会いできる確率は高くないので、続きを書きます。
*
脳の性格、特性、傾向、なんだかそのようなものが記憶されてくると、今度は、画面上のどこに輪郭線を配置すれば脳が物体を認識するようになるのかという、逆演算をするのが課題となります。
といって、ここまでの間に思わず鉛筆を手にとってしまっていた子は才能があります。
逆に描かなくていいなら鉛筆なんかとらないよって子は、永久に描き始めません。
あなたは、初めから絵の才能がないとおっしゃっているので、ネタバレしました。
結局は物理的に絵に取り組んでいた時間の総和はだいぶモノを言います。
*
ってみんな言うんですが、左手がハードル高いなら星のカービィを描いてください。
*
描いて、見て、見て、描いて、見て。
絵の練習はこの繰り返しです。
なぜそのように見えるのか?を自問自答するのが絵の練習の重要な要素です。
練習せよ、納品せよと言われて描くような、主体性のない作画は、どういうわけか退屈で拷問のように辛いのです。
*
最終目標は脳の認識を逆演算することですから、バグ技、ハッキング、そういうような概念に近い試みと私は思います。
とりとめもなく色々と書きましたが、結局は「やってみること」が非常に大切です。
軽い気持ちでやってみましょう。
グッドラック!
https://president.jp/articles/-/87827
このままでは国民皆保険が壊れていく…金子勝「マイナ保険証は政治献金企業が儲かる究極の寄生システム」
敬称略です。
政治献金と技術的に遅れた日本の情報産業のための救済事業との結びつきは非常に強い。
ほぼ10年間でマイナンバー関連事業を少なくとも3000億円近く発注していると見られるが、大企業8社が共同受注などで独占的に契約している。
そんなことはありません。むしろ、大手IT企業はこの手の自治体公共事業が薄利すぎて足を洗いたがっているというのがほぼほぼ現在の状況です。最近では大手の撤退が激しく、元々大手が担っていた部分を別の中堅SIerが無理して受注したものの、ノウハウもなく薄利過ぎて対応出来ず納期通りに納品できない案件が続発しています。そこで、入札参加条件が上げられた結果、入札が予定価格を上回り、随意契約になると言うケースが多発しています。
見る人が見れば、NTT系が基本を抑えつつ、周辺の企業が参画しているというのがわかると思います。大手5社のコンソーシアムで、NTTコムがメイン、NTTデータ、NEC、日立、富士通の合わせて5社で共同受注しています。そして、他に手を上げた企業はありません。
NEC・日立・富士通は関連公共システム(住基や戸籍、税務システムなど)が関わりそれらとのつなぎ込みが必要になるからですね。
他に手を上げた企業がない上、入札では予定価格を上回ってしまった結果、随意契約と言うケースです。報道によれば、いずれも随意契約にするにあたって、調整の結果入札価格よりも低い価格で受注させているようです。
他、凸版とDNPは物理的なカードの発行業務をやっており、合わせて800億円ぐらいの受注額です。そしてマイナカードは1億枚発行していますので、1枚辺り800円。カードは物理的に1枚300円はしますし、送付事務に使う簡易書留は350円しますので。単純に残りの取り分は150円です。全然高くありませんね。ここで事務手続きなどをやる事になります。数が多いので最大限コストは低く抑えていると思いますし、全てが郵送交付ではないとか細かい話はあるでしょうけれども。
JECCはリース会社です。国の予算の関係でいったんファイナンスを引き受る。大手IT企業がごそっと出資している特殊な会社です。金額はでかいですがこの会社が入るのは主に行政の硬直性の問題です。
何故か突然旧ソ連・ロシア方面の用語が出てきて面食らった人もいると思いますが、オリガルヒとは、官製の新興財閥だそうで、その方面の人たちからは社会主義国家ソビエト連邦が崩壊したどさくさに紛れて、民間にいくときに出来た悪しき存在という事で、よく批判に出てくる用語です。
さて、彼らはオリガルヒなのでしょうか?
そんなわけないんですね。
一般的にIT企業が求める水準の利益率とは30%と言われる中、政府系の仕事は利益率が1割を切る事があたりまえです。エンジニア不足の中でやりたくない仕事です。
NTT系が1300億円程度の受注をし、物理的発行やリース会社を合わせて8割以上で、残りとは大きな差があります。ここで金子らなぜNEC日立富士通を入れたのか。それは5社が献金していると言いたいが為に3社を水増しした感じがしますね。
まずは、利便性について検討しましょう。金子はこの一文のみ、内容も根拠も全く触れず、まるで自明のような扱いですが事実とは異なります。
政府は、マイナンバーカードの調査を定期的に行っており、最新の結果はこちらです。
少なくとも、利便性が「まったくない」と言う事は「まったくない」ことがわかります。
やたら多くの紐付けをするために、なくしたり盗まれたりすると、すべての個人情報が漏れてしまう。
ここでは逆に、全ての情報が漏れるにはどのような条件が揃う必要があるかを並べてみると
と言う事が必要。
と言う事が必要です。
さてこれを「セキュリティがまったくない」と表現するのが適切でしょうか?
現状、これよりも固いセキュリティを強いているシステムは本当にわずかです。
暗証番号のない顔認証マイナ保険証、スマホのマイナ保険証(これもマイナ保険証をスマホに接触させないと使えない無意味なもの)など、数種類のカードが発行される極めて非効率なもの
これは明確に誤りです。何故ならば、1人に発行されるマイナカードは1枚しかないからです。受け取る側のシステムも一つ。
「マイナ保険証をスマホに接触させないと使えない無意味なもの」も誤りです。最初の1回だけ行えばよく、使う時にマイナカードは必要ありません。
初回のそれはマイナカードで認証する為に必要というだけの話です。
さて、金子はこの状況を「数種類のカードが発行される極めて非効率なもの」とする一方で、「多数数の紐付けを止め、一つひとつ独自のOS(オペレーティング・システム)で」を提言しているのですが、整合性がありません。
マイナンバーシステムが設計されたのは今から10年前の2014年ですが、当時はまだスマートフォンに安全に電子証明書を持たせる仕組みがありませんでした。
現在できる様になったのは、日本政府や担う企業なども参画し国際標準規格を作ったからです。ISO18013-5が正式に出来たのは2021年です。最初からできた所は存在しないでしょう。そしてこの規格を世界が利用しようとしています。
これも誤りです。いまでもICカードが最も堅いセキュリティ確保の手段の一つです。
それは何故かと言うと、ICカードに入れた鍵は、現実的な手段では取り出す事も複製もできないからです。これはパスワードが漏れていても完全に中身を出せないと言う意味でもあります。
こういったことを言っている人は、大抵プラスチックカードといえば磁気カードの時代で認識が止まっている事が多いです。
ICカードは、単に定型の情報を返すものではなく、このカード自体がコンピュータです。マイナカードを利用する時にパスワードを入れますが、このパスワードはオンラインではなく、カードの中で処理されます。そして複数回数間違えると、カードの中の最も重要な鍵、電子証明書が消されアクセス出来なくなります。また、電子証明書も、このICカードが演算して帰す事で行われます。こういったことを理解しているのでしょうか。
また、顔認証が不安定という詳細が明らかにされていませんが、事実として顔認証は99%の精度があります。たまに「マスクをしていたのに顔認証が通った」という人もいますが、これはマスクをしていても顔認証ができる技術を使っているからです。他人のマイナカードで認証ができてしまったと言った話が出回っていますが、反マイナカード保険証団体の調査した結果2件だそうです。日本の保険医療の件数は数億件ありますが、そのうち2件です。
その理由をオンプレミス方式で、クラウドプラットフォームにしてないからだと説くのですが、今回出てきたトラブルはシステム的なトラブルはほんのわずかであり、ほとんどはインプットするデータの問題でした。
これは、仮にアメリや中国の巨大IT企業に依頼しても同じ事が起きていたでしょう。
金子は「マイナ保険証のひどい醜態」を自明のごとく上げていますが、その具体的な中身について一切論じていませんが、これが事実だと言う客観的な証拠がありません。全国民が使用しているシステムであると言う事を考えたとき、例外でマイナーなトラブルしか起きていませんが、これはむしろ過剰品質とさえ言える状態です。
オードリー・タン氏は、マイナンバーシステムの普及が必要不可欠だと言う事を自明のものとして扱った上で、普及を進めるにはどのようにしたら良いかと言う点で多くの提言を行っています。
また、台湾は日本以上に全ての情報が「中華民國統一證號」に統一されており、身分証の携帯が義務づけられているなど、日本より遙か前から「国民総背番号制です。前からあるが故にシステムが古い所があって運用に苦労をしているようですが、その全てを捨てて失敗だなという暴論が出ているとは聞いたことがありません。
ちょっとこれの意味が分かりません。金子は、オードリー・タン氏の名前を出した直後にこれを言っているのですが。その段落を全部抜き出すとこうです。
マイナ保険証については、通常の健康保険証廃止を止め、一からやり直して、クラウド上でスマホのアプリにする。多数の紐付けを止め、一つひとつ独自のOS(オペレーティング・システム)で丁寧にプログラムを組んでいくことが必要である。
もっと意味が分かりませんが、ここから頑張ってエスパーしてみます。
これについては全く逆です。マイナンバーシステムを通じてデータを関連づけすることによって、システム間で生の個人情報を槍と知りなくて良くなると言うメリットがあります。
共通IDがない場合、一貫した行政処理を行う時には、住所氏名生年月日といった従来からの本人の個人情報で判別するしかなくなります。
一方で統一つぃたIDで管理されている場合は、その結びつけの情報だけでデータのやりとりが出来ます。また、結びつけの情報は中央に存在するシステムが管理するのみで、接続されているそれぞれのシステムではユーザを識別する情報は別々です。中心に存在するシステムを通さないと結びつけが出来ない仕組みになっています。
また、中央のシステムで結びつけの情報を捨てるだけで容易に結びつけが出来なくすることが簡単にできます。
しかし、リアル情報を使ってしまうとそのような事はできません。
既にマイナポータルはスマホで動いていますし、一からやり直す必要はありません。
また、既に述べたようにICカードは現時点で全国民規模で動作させるセキュリティとしては最も固いものの一つです。スマホのアプリ専用にするのはセキュリティ(これは情報保護・不正アクセス回避という他に、可用性という意味も含みます)の問題があります。
現在、スマートフォンに入れることが出来る環境が揃ってきましたので、スマートフォンに入れた証明書を普段は使用して、マイナカード本体は家に置いておく、と言うスタイルが可能になります。
また、マイナカードのアプリケーションはいわゆる「クラウド」と呼ばれるシステムで多数動いており、既にクラウド上であると言えます。
既にOSレベルで独自に作成する意味はありません。それも一つ一つ別のシステムに刷るなどと言う意味はありません。
これは、交通安全のために、全ての自動車の運転方法をバラバラにするべきだ、と言っているようなものです。
また、問題になっているのはその上に乗っているサービスであるため、これによって何かが良くなることはありません。
一概には言えませんが、金子が成功例としてあげるGAFAMなどでは「Agile開発」と言われる手法が一般的になっていますが、これは「丁寧にプログラムを組んでいく」から連想されるものとは大きく異なるものです。
政府や厚生労働省が描いている医療の姿はまさにこれそのもの(もう少し具体化され、洗練されていますが)だと思いますが、何故これが「完全に間違っている」のでしょうか。
また既に実現している部分があります。
一方で実現されていない部分もあり、それを補うためにマイナンバーシステムを共通IDとして活用しようと言う事になっています。
今日、G検定を受験した。AIやディープラーニングに関するちょっと話題のやつだ。11月8日〜9日開催の2024年第6回。今回の試験から新シラバス(問題範囲)が適用で出題数が変更となる。
G検定は自宅受験可能な性質上、運営が不正行為禁止と言いながらもPCインカメラ監視や画面共有監視もなく受験者たちの間では公然とカンニングが行われていることで有名な試験だ。
IT系のAI試験だからGoogleやAIを使いこなすのも試験の一環だって?そんな屁理屈ありかよ。ありなんだよな。
SNSやnoteやqiitaの受験記を見てもそうだし、検索欄に「G検定」と入れると「カンペ/カンニング/チートシート」などが多数サジェストされることからも明らかだ。
そのため運営はカンペを一目見たり用語集をCtrl+Fで検索してすぐ解けるような一問一答的な出題を避けているという。問題文と選択肢は画像形式で出題されてコピペ不可。それくらいの抵抗はしてくる。
前回まで試験時間120分に対して出題数は公称200問程度だったが今回から160問へと変更され1問当たり時間が約30秒から45秒へと増えたのも、複雑な出題でカンニング潰しをしてやるという運営の意気込みが事前に感じられていた。
しかし運営の姿勢や自力で正々堂々と挑む他の受験者に悪いが不正受験者がいる以上は俺も乗っていくし、先端AI的な試験を受ける気概はあっても高度な自動回答環境を作れるスキルはない、そんなクズでカスの取ったスタイルを紹介する。
他の自宅受験系の資格試験にも流用できるだろう。こんな恥ずべき内容は他じゃ書けない。
ネット環境下でどこでも受験OKだが自宅がベター。広いテーブルがあるといい。カンニングしまくる以上そんな姿は人目に晒せない。会社や学校など知り合いのいる環境は論外だ。
出題内容が各人で同一であるなら仲間と結託してもいいがおそらく違うのではないか。
・PC類
頼みの綱。文字入力よりPC画面上の文字コピぺできない問題文をスマホで撮って画像入力するのがメイン。アップした画像内の文字を認識して回答できるタイプで事前に操作に慣れておく。
最近のAIならまあ対応可能だろう。性能の高い有料版に課金して安心をダメ押してもいい。世話になるのは本番2時間なのでお試し版でもいい。
俺はSoftBank系回線があれば1年タダの有料版Perplexityを普段使用しているのでこれ。
・テキスト類
シラバス(試験範囲)記載の用語が解説されたいわゆるチートシートはネットに落ちている。ブラウザで開くなりWord Excelファイルにするなり中身を検索できるようにしておく。
画像タイプでない中身が文字検索のできる試験対策の電子書籍や、テキストをそのまま書き起こしたような詳しい有料チートシートもあると心強い。
目次や索引の充実した、またはこの辺に書いてあると把握できてる読み慣れたリアル書籍もいい。
・その他
飲み物はすぐ飲めて倒してもこぼれにくいストロー付き紙パックなどがいい。
2時間の長丁場なので食べる余裕ありそうならお菓子などを用意してもいいし、アガるプレイリストを用意して音楽聴きながらやってもいい。
時計は受験画面内に常に残り時間がカウントダウンされているので不要。120分160問だから目安として残り100分時点で27問解いておきたい、80分で53問、60分で80問とメモっておくと焦った頭でもペースが掴める。
ノートPCを2台並べ、1台はブラウザで受験画面とAIを2画面表示、もう1台は簡素で一問一答的なシラバス用語のチートシートと詳細なテキスト状のチートシートを2画面表示。これはデスクトップとか1台のデカいモニターに並べてもいいだろう。
そしてスマホ2台でもAI。カメラとAIが使用できればタブレットでもいいだろう。これらを出題内容によって使い分ける。
自分の実力次第だが、用語や説明文見たら解けそうな問題はテキストからCtrl+Fで検索。AI先生に聞いた方が早そうなものはAIで。
AIに聞くのもPCタイピング入力、スマホフリック入力、出題文丸ごとをスマホで写真撮って画像認識のどれが早そうかを使い分ける。写真アップの場合は文字認識にやや時間がかかるだろう。その間に次の問題に行きそこでもAIに聞きたい場合に2台目のスマホで解いてもらう。待機時間や問題を行き来する時間は極力減らしたい。
計算問題は自力で解ける実力があってもAIに頼んで次の問題に行った方がおそらく早い。問題にはチェックマークつけて後で見返せるので1周終えてから検算してもいい。
Perplexityは画像認識での行列、サイコロ確率、期待値、畳み込み演算などを難なく正解した、はずだ。
今日の2日目受験だったが1日目受験者の感想をSNSで見ると今回からなかなか厄介に変更されているようで覚悟して挑んだ。
あまり勉強してないので過去出題や問題集との比較はできないのだが見て回ると今回は阿鼻叫喚の難易度らしい。カンニング跋扈に運営もキレたか。
問題プールの中から出題も順番もランダムに出題しているのか、同じ図表の穴埋め場所違いな問題が複数あったり、同じ用語の問われ方違いやほぼ似た感じの問題が複数あった。
勉強していればサービスだが勉強不足だと「似た問題を少し前に解いたけど自分が理解して解いたわけじゃないからまた探さなきゃ(またAIに解いてもらわなきゃ)」となり時間ロス。運営の戦略か?
試験は終了時間5分ほど残してとりあえず解き終えた。上記回答方法をスムーズにこなしてもかなりギリギリだった。
後から気付いたが問題画像を右クリック保存できるようにしたり最悪スクショした画像をブラウザAIに読ませた方が早いかもしれない。
感触はかなり良いが、AIに聞いた部分が正答できたのか全スクショして答え合わせしたわけでもないので合否不明。判明したら追記する。合否のみで得点開示されないのは残念。
AI先生の回答能力と画像認識力が上がりまくった現状、カンニングできちゃうIBT(自宅受験)はほぼお布施の価値しか無いだろう。最低限インカメラの目線監視や画面共有監視、CBT(近所の会場受験)でないと。
合格した。計算問題のある単元「AIに必要な数理・統計知識」はパーフェクト。他単元も60〜100%正答。 AI様々だね。
これからは俺AIわかってます顔で社会を歩かせてもらう。合格率73%はけっこう高いな。みんな難しい言いながら解けてるじゃん。
C言語の授業だったと思う
その頃のWindows98が一般家庭にはそこそこ普及してて、学校のPCはほとんど95だった
ゲームを作る学科とはいえ、まだ入学したてでプログラムなんてすらすら組める生徒はほとんどいなかった
というか、卒業までにそこそこプログラムを書けるようになる人なんて数人だった
じゃあゲーム作るなんて無理だろうって話なのだが、ここでいうゲームは、
printfとgetc?を駆使して、さらには可能であればrand(rands?)も使用し、
あらゆる演算(四則演算とさらには%)を組み合わせた高度なアルゴリズムが必要な
中には、ゲームブックを具現化したような、分岐数が二桁を超える圧倒的ボリュームのマルチエンディングアドベンチャーを作ったやつも居たし、
タイマーかなんかでゴリゴリ回してだったかターン制だったかの、インベーダーゲームを作ったやつもいた
たしか2コマぶち抜きだったか、日を分けて2~3コマだったか忘れたけど、そこまでやるやつは家では他の事するので
授業内で全部組んでた
「大」が自キャラで、剣を装備したら「犬」になる とかで 王様との挨拶をすっ飛ばして
「山」やら「森」やらある「草」フィールドを歩いてたら敵にエンカウントして、ドラクエ1みたいな戦闘できるやつ
AAで敵のグラフィック作ろうとしてあまりにも時間がかかることでスライムだけ作ったぐらいで終わった
今思えばシレンを作れば良かったと思う
先月ぐらいに、今更そういやローグってどんなゲームだ? って気になって調べたら、AAとか要らんみたいだったから
でも当時は好きなゲームで一番シンプルで作りやすそうなのは、ドラクエだった
というのを他の増田でマリオを作るという記述見て思い出しただけの増田
なんか色々考えさせられることは多いなと思って書き始めたのだけど、前述の圧倒的ボリュームのマルチエンディングアドベンチャーは
だいたい選択肢を間違えたら一歩先で💩まみれになって死ぬだったなあ って記憶がよみがえって来てどうでもよくなってしまった
実際は、穴に落ちたり、犬に嚙まれたり、色んなパターンあったし、エンディングは画面切り替えもあってそれなりに感動する仕上がりになってたから、💩まみれって評価は正しくはない
PS5 proのスペックと同じスペックのPCを用意しようとした場合、モニターとOSこみで14万円かかる。
本体のみだと11万円となりPS5 Proと値段がほぼ変わらないことになる。
(PS5 ProはASK税込みの1ドル180円で計算した場合、108,000から126,000円ぐらいと思われる)
G.SKILL F4-3200C16D-16GIS (DDR4 PC4-25600 8GB 2枚組)
4,820円
XPG PYLON 550W PYLON550B-BKCJP
6,667円
中古 Intel Core i7-12700 (2.5GHz/TB:4.8GHz) Bulk LGA1200/8C/16T/L3
42,980円
中古 _MSI PRO B660M-E DDR4 (B660 1700 mATX DDR4)
8,590円
Ultimate SU630 ASU630SS-480GQ-R
4,980円
13,262円
SPARKLE Intel Arc A750 ORC OC Edition SA750C-8GOC
31,700円
11,000円
16,090円
合計 140,089円
Intel arc a770(16GB)はfp16だと39tflops程度で、中古だと3.2万円から4万円台で売られており、新品だと4万円から5万円台程度なので、運が良ければps5 proとメモリー以外全く同じやつが手に入ってしまうことになる。
以下、そうなる根拠。
公式発表では、PS5におけるGPUの処理能力は「10.3TFLOPS」。この数字は、RTX2080に相当します。しかし「TFLOPSの数字」と「実際のグラボの性能」は、百パーセント一致するものではなく、性能ほど実パフォーマンスは高くならないのが一般的です。
CPU:CPU周波数最大4.4GHz、Zen4ベースアーキテクチャ、5nmプロセス製造。台湾TSMCが製造を担当。CPUのクロック周波数を10%増加させ、3.85GHzで動作させるモードが搭載される。
(Apple M2と同じく、TSMC製4nmプロセスSoC搭載の可能性もあるとのこと)
CPUキャッシュ:コア毎に64kBのL1キャッシュ、512kBのL2キャッシュ、8MBのL3共有キャッシュ
性能:PS5標準モデルと比べ、通常時で2倍、レイトレーシングでは2.5倍の性能アップ
プロセッサ:30基のWGP(Work Group Processors)、60基のCU演算コア
ROP(Rasterize OPeration unit):96~128基
メモリ:18gbps GDDR6 256bitメモリ、メモリ容量16GB、バス幅576GB/s、18000MT/s(現行PS5のメモリは14000MT/s)
GPU:GFX1115。GPUコアが現行の18個から30個に増加。これは約1.66倍の増加
GPUキャッシュ:L1キャッシュが128KBから256KBに倍増、L0キャッシュが16KBから32KBに倍増
グラフィック性能:PS5比で45%向上。可変レートシェーディングやハイブリッドMSAAのサポートなど、DirectX 12 Ultimateの新機能を搭載。GPUのアーキテクチャがRDNA 2からRDNA 3に変更される可能性があり、これにより各GPUコアの演算機が2倍になる。
超解像技術:ソニー独自の超解像技術を搭載。高精細と高フレームレートを両立。AMD FSR2等の採用は無し。アップスケーリング/アンチエイリアスソリューション
(AMDのFSR(FiedelityFX Super Resolution)を搭載との話も)
Theoretical Performance
268.8 GPixel/s
Texture Rate
537.6 GTexel/s
FP16 (half)
34.41 TFLOPS (2:1)
FP32 (float)
PSのCPUはRayzen 7 7700X相当で、Intel Core i7-11700だと7割の性能で、Intel Core i7 12700で同じぐらいの性能となる。
昨年、一念発起して100kgの大台から70kgまで、30kgの減量に成功した。
やたらと知見を共有したがるのはエンジニアの美点の一つだが、私もその例にならい、ここにダイエット中に学んだことを共有しようと筆を執っている。
ダイエットとはそもそも、日常の食事のことを指し、それが転じて食習慣の適正化を意味するようになった。
減量の本質もそこにある。
人は食べたものからできている。食習慣を適正化すれば、自然と健康的になる。
30kgもの減量に成功した最大の要因は、自分がエンジニアであったことだと思う。
そもそもプログラミングとは、入力されたデータに対して任意の出力データを得るために加工する、その計算方法を設計し、実装することを指す。
料理もまた同じで、食材という入力に対して、調理を実施し、料理という出力を得る。
そのため、体重と食習慣の適正化というプロジェクトに対して、プロジェクトのマネジメント手法が応用可能なのだ。
メモリ4GBのオンボロPC抱えてパイプ椅子で開発すすめても、ろくに進捗しないのと同じだ。
ただし、闇雲に金をかければよいというものでもない。投資すべきものというのは、だいたい決まっている。
どれも無くても減量自体は可能なものばかりだが、あったほうが効率が良い。
そもそも減量はモチベーション管理のゲームなので、自動化、簡易化できるところはやったほうがいい。
金を払って健康を買っていると考えればよい。
まったくアーキテクチャを考えず、行き当たりばったりでファイルごとに違う設計のプロジェクトは悲惨な結果を招く。
最初にこのアーキテクチャで行くと決め、ひとまずはそれを続けることが大事だ。
減量で言えば、ローファットでいくかローカーボでいくかということだ。
日によって低脂質でいったり低糖質でいったりするのは全く良くない。
自分は低脂質でいくことにした。そのほうが筋肉量の減少を抑えられるし、コレステロール値の改善にも効果的だからだ。
金融系プロジェクトにありがちな細かすぎるコード規約は有害無益で時間と金の無駄だが、余りにフリーダムなのも混乱のもとである。
減量でいえば、目標カロリー量とPFCバランスだ。ここがいい加減だと、到底うまくいかない。
カロリー量はハリス・ベネディクト方程式から出される基礎代謝の1.5倍とかに設定すればよいだろう
そのうえで、低脂質ならP:30%, F:20%, C:50%のように割り振ろう。
たとえば1600kcal目標なら、P: 480kcal = 120g, F: 320kcal = 35g, C: 800kcal = 200g、といった感じだ。
この規約を守るためにも、あすげん/カロミルがあれば、計算が楽だったというわけだ。
プログラミングでは、実行時に行うと重すぎる計算はビルド時など事前に行ったりすることがある。
初代スーパーマリオブラザーズのジャンプは、1フレームごとに重力係数をかけて計算しているわけではなく、加速度がハードコードされている。
ブロック崩しでさえ物理演算するような現代においても、似たようなことをすることはある。
ダイエットで言えば、時間的余裕のあるタイミングで、できることをしておけということになる。
キャベツを千切りにしたり、きゅうりやトマトを切ったり、オートミールに材料混ぜておくことは事前にできることなのだ。
夜寝る前などにやっておき、明日の調理工数を最低限にしておくことが大事だ。
処理したものはジップロックコンテナにでも入れて、冷蔵庫にしまっておこう。
よく食べる鶏むね肉や牛もも肉なんかもキロ単位で大量買いして、1食量ごとに切り分け、ジップロックバッグに入れて冷凍庫に入れておこう。
適切なキャッシュがもたらす実行速度の向上効果は非常に大きい。
これは料理についても言える。
毎食ごとに献立を考え、材料を揃え、包丁で切ったり、コンロで焼いたり…などの調理を行うのは非常に非効率である。
いわば冷蔵庫はメモリキャッシュであり、冷凍庫はディスクキャッシュのようなものである。
よく1人分作るのも3人分作るのも変わらないよ〜などと言うが、同じ理屈で1食分作るのも、3食分作るのも、手間としてはたいして変わらない。
すでに広く使われ、実績のあるライブラリがあるのに、なぜ一から作らなければならないのか。
これはダイエットについても言える。
安価で大量に手に入るカット野菜などは、買ってしまえばいいのだ。
たとえばきんぴらごぼう。作ると面倒なきんぴらごぼうだけど、その面倒さの9割はごぼうを千切りするところにある。
千切りして水にさらし終わったら、きんぴらごぼうの調理工程の9割は終わっている。
しかもこの部分は、工数が量に依存しているため、大量作成の恩恵を受けづらい部分だ。O(n)である。
一方でカットごぼうを大量買いすれば、あとは炒めるだけなので量に依存せず、大量作成が容易になる。O(1)にすることができる。
他にも、オイコスヨーグルトとか、サラダチキンとか、Baseブレッドなどの外部サービスを使うのも良い。
プロジェクトの初期段階、リードエンジニアが重要なクラス群とサンプルとなるクラスをいくつか作った後は、それをひらすらに横展開していくことになる。
この段階では天才エンジニアなど必要なく、コピペマンでじゅうぶんになる。むしろ下手に独自の考えを持たず従順に開発してくれるぶん、そのほうが良いことさえある。
ダイエットについても同じことが言える。
なぜ毎食毎食、独自の健康メニューを考え出さないといけないのか。食事の都度、栄養成分を計算し、調整しなければならないのか。
あすけんで一度100点をとったらあとは、ひたすらそれをこすり続ければいいだろう。
朝
蒸しかぼちゃ
昼
ふかしたさつまいも
蒸しかぼちゃ
夜
りんご(皮ごと)
蒸しかぼちゃ
毎食似たようなものを食べていることがわかるだろう。
これは日単位でも同じで、別の日は牛もも肉が刺し身になったり、さつまいもが蕎麦になったりはするが、その程度の差だ。
どうしても違うものが食べたくなったら、そのときに改めて計算すれば良いのだ。
そうすれば手持ちのカードが増えていく。
インシデントが発生したとき、必要なのはリカバリーであって、そんな時に人を責めても何の役にも立たない。時間の無駄だし、士気も下がるだけだ
こうしたとき、自分を責めても仕方がない。自分をクビにはできないし、ダイエットは長期戦なのだ。
ある日に食べすぎたからと言って、次の日にその分を減らすと、必要な糖質や脂質が不足して代謝が落ちてしまったり、だるさが抜けなくなったりするため、そういう方向でのリカバリーはやめよう。
しっかりと痩せる食事スタイルが確立しているなら、それを続ければ良いだけだ。
どうせ1食程度ではそんなに太ることはできない。
計測は減量期間中だけでなく、むしろ減量終了後にこそ必要になる。
そもそも、減量前の食事が減量前の体重を作り上げてきたのだから、減量前の食事に戻せば、体重も戻るのは当然のこと。
もとの体重に戻りたくないなら、新たな食習慣を作り上げる必要がある。
プロダクトリリース後、つまり減量後の運用フェーズにうつったら、減量飯でもデブ飯でもない、心にも体にも良い食習慣へと移っていこう。
急激なUI変更がユーザーの反発を招くように、急激な食事変更は体重の反発(リバウンド)を招く。
そこで、オートミールだったところを玄米ごはんにするとか、ささみだったところを蒸し鶏にするとか、ちょっとずつ維持するためのご飯へと変えていき、どのくらいの量なら大丈夫なのかを見つつ、ソフトランディングしていこう。
AIに要約してもらった。
この文章は、ゲーム開発の変遷に対する筆者の考えを述べています。
昔のゲーム開発は、リードプログラマーが自前でエンジンや物理演算を作り上げる職人芸的な仕事でしたが、今ではUnityやUnrealのような汎用ゲームエンジンが普及し、エンジンを書く仕事がほとんどなくなりました。
これにより、ゲーム開発はコードを書く作業から、コンテンツ制作に重点が移り、以前のようなプログラミングスキルがあまり必要とされなくなったことを嘆いています。
また、技術の進化によって、昔の職人技が不要になり、その結果、ゲーム業界で活躍する機会が減ったプログラマーもいると指摘しています。
筆者は、時代の変化についていけない自身や同世代のプログラマーが「老害」となりつつある現状を認識し、技術職の未来に対する不安を表明しています。
浮動小数点演算ユニットなんてのは386の時代からあって(ユニット自体はもっと前からあったが)、nvidiaが爆成長したのは仮想通貨ブームでのマイニング需要が発生したからだよ
なんせ金が儲かるならいくらでも投資する人は現れるし、企業としてやるんだから一部のゲーマーが湯水のように金を使うなんてのとは需要のケタが違う
3Dとかは全く関係無いとは言わないが、処理自体は高度な事をしているのでは無く莫大な数のコアを使った並列処理で延々と単純な計算をしているだけ
(トータルのユニットとしては非常に高度な技術なのは言うまでも無い)
それがマイニングやAIの処理にも使えたというもの。このタイミングでマイニングやAIが出てきたのは偶然に近いと言っていい
後、スパコンに関しては全く関係が無い。nvidiaはスパコンで莫大な利益を挙げているわけでも無いし、そもそもスパコンと言ってもいろいろな評価軸があるが最も重要なのは逐次処理性能
アウトプットのタイミングを問われない並列処理ならコアを増やせば理論上いくらでも性能はあがるが、アウトプットを待って次の処理に入る様な複雑な計算こそがスパコンに求められているもの
これは今我が世の春を謳歌している3DプロセッサやArm等に代表されるRiscCPUが最も苦手とする物。つまり全くジャンルが違う
当初はGPUとして開発され、事実上開発の失敗からオマケ程度までスケールダウンされたPS3のSPEは今のNVIDIA製GPUの原始的な形そのものだし、
当時すでにGPUは存在したし、GPUを他の目的に使用する行為(GPGPU)も行われていた。機械学習に使われ始めたのは2010年くらいからだと思うけど。
ちなみに、SPEはGPUをスケールダウンしたものではなく、計算に特化したCPUを複数載せようという設計思想なので、今の膨大なコアで行列演算をぶん回す戦場では勝てない。メニーコアCPUはそれはそれで発展する余地はあったと思うけどね。
「ベクトル型とスカラー型のハイブリッド」とはGPUを複数機搭載したサーバーそのもの。つまりきわめて大ざっぱに言えば基本設計は十年以上先のトレンドを正しく捉えている。が、どちらも実際の開発や予算の都合に失敗しているし、NECのベクトル型スパコンなど需要はゼロだった。
日本がハードウェア部門で存在感を示すには、GPUの開発に研究費をぶっ込む必要があったわけだが、GPUのような不真面目な分野には研究費が出なかっただろうな(偏見)