「tensor」を含む日記 RSS

はてなキーワード: tensorとは

2025-01-15

anond:20250115112348

Tensor.artは?

2024-12-17

anond:20241217112756

まだTensor.Artを試していないけれど、確かに興味深いサービスみたいだね!AI活用してクリエイティブ作品を生成できるという話を聞いた時、正直ワクワクしたんだ。特に最近AIアートデザインの分野でどんどん活躍しているし、自分もその波に乗りたいと思っている。Tensor.Artがどんな独自性を持っているのか、他のAIツールとどう違うのか、ぜひ詳しく知りたいところだよ。

もし、AIアート作成初心者でも簡単にできるなら、なおさら試してみたい。画力に自信がない人でも、自分アイデアを形にできるなら、創造の幅がぐっと広がるはずだからね。さらに、プロクリエイターにとっても、インスピレーションを得る新しい手段になるんじゃないかな。AIによる作品生成は、単なる効率化に留まらず、既存手法では思いつかないような斬新な表現提供してくれると思う。

からTensor.Artがどんなアートスタイル機能提供しているのか、どれだけ自由カスタマイズできるのかを知るのが楽しみだよ。もし試した人がいるなら、具体的な使い方や作品例を教えてほしいな。これはただのツールじゃなく、アートを再定義するきっかけになるかもしれない。次の週末にでも時間を取って、実際に触ってみようと思う。

2024-10-06

ワイ:

x = torch.tensor([

[1.0,2.0,3.0],

[4.0,5.0,6.0]

])

最終次元が channel とし、この x を channel-wise 正規化してください。

Claude3.5 Sonnet:

はい、channel-wise 正規化チャネル方向の正規化)を行います。この場合、最終次元(dim=-1)がチャネルとなります。channel-wise 正規化では、各チャネルの平均を0、分散を1に正規化します。

PyTorchを使用して、以下のように実装できます

import torch

x = torch.tensor([
    [1.0, 2.0, 3.0],
    [4.0, 5.0, 6.0]
])

# チャネル方向(最終次元)の平均と標準偏差計算
mean = x.mean(dim=-1, keepdim=True)
std = x.std(dim=-1, keepdim=True)

# Epsilon を追加して、ゼロ除算を防ぐ
epsilon = 1e-5

# 正規化を実行
x_normalized = (x - mean) / (std + epsilon)

print("元のテンソル:")
print(x)
print("\n正規化後のテンソル:")
print(x_normalized)

このコードを実行すると、以下のような結果が得られます

元のテンソル:
tensor([[1., 2., 3.],
        [4., 5., 6.]])

正規化後のテンソル:
tensor([[-1.2247,  0.0000,  1.2247],
        [-1.2247,  0.0000,  1.2247]])

ワイ:

x = torch.tensor([

[1.0,2.0,3.0],

[4.0,5.0,6.0]

])

最終次元が channel とし、この x を channel-wise 正規化してください。

ChatGPT o1-preview

import torch

x = torch.tensor([
    [1.0, 2.0, 3.0],
    [4.0, 5.0, 6.0]
])

# Compute mean and standard deviation along the batch dimension (dim=0)
mean = x.mean(dim=0, keepdim=True)
std = x.std(dim=0, unbiased=False, keepdim=True)

# Perform channel-wise normalization
x_normalized = (x - mean) / std

print("Normalized Tensor:\n", x_normalized)

Output:

Normalized Tensor:
 tensor([[-1., -1., -1.],
        [ 1.,  1.,  1.]])

Explanation:

Compute Mean:

The mean is computed along the batch dimension (dim=0), treating each column as a channel.

mean = x.mean(dim=0, keepdim=True)

This results in mean = [[2.5, 3.5, 4.5]].

Compute Standard Deviation:

The standard deviation is computed along the same dimension with unbiased=False to match the sample size.

std = x.std(dim=0, unbiased=False, keepdim=True)

This results in std = [[1.5, 1.5, 1.5]].

Normalize:

Subtract the mean and divide by the standard deviation for each channel.

x_normalized = (x - mean) / std

This yields the normalized tensor with standardized channels.

Note: Setting keepdim=True ensures that the mean and standard deviation tensors have the same number of dimensions as x, which is necessary for broadcasting during subtraction and division.

ChatGPTの方が正しいよね?

2024-09-10

iPhone 16 vs Pixel 9

iPhone 16Pixel 9
値段124,800円128,900円
画面6.1型6.3型
解像度1179x25561080x2424
サイズ147.6x71.6x7.8152.8x72x8.5
重量170g198g
画素数48MP50MP
広角12MP48MP
CPUA18 BionicTensor G4
メモリ8GB12GB
バッテリー持ち3561mAh4700mAh
Wi-FiWi-Fi7Wi-Fi7

Pixelは過剰スペックで大きくて重い

iPhoneはちょうどいい大きさで軽い

PixelはこどおじにiPhone若い女性に人気なのがなんとなくわかる

2024-08-30

NVIDIAあらずんAIにあらず

嫁をAIで復活させるでお馴染みの松尾公也がpodcastの中でAppleNVIDIA土下座してデータセンターに使わせてもらえば良いのにって言ってた。

自前とかTensorでやったらAIアーティストには認めてもらえないのかな。さみしいな

2024-05-02

Nintendo Switch次世代機

Nintendo Switch次世代機の話があったが、任天堂がこだわる「新しい遊び」の部分は正直想像がつかないので楽しみに待つことにして、性能的な部分での予想をすると、一番重要なのはプロセッサをどうするかという点だ。

現在Nintendo Switchで使われているのはNVIDIA設計したTegra X1というプロセッサモディファイ版だと言われていて、当初は20nm、2019年ごろに登場した省電力版では16nmプロセスが使われていると言われている。

ARMコアNVIDIAGPUを組み合わせたSoCなので、それぞれ年数分の世代進化に合わせたプロセッサがあればそれを使えばいいだけなのだが、問題NVIDIAモバイル向けのSoCほとんど見捨てていることだ。

Tegra X1後継のSoCはXavier、Orinとき現在はThorという世代が発表されているが、いずれもモバイルゲーム機向けではなく組み込み・ロボティクス向けのJetsonか車載向けのNVIDIA DRIVEとしてパッケージされている。

Tegraでやったように任天堂専用モディファイとしてプロセッサだけを切り出してSwitch 2に内蔵する可能性もなくはないが、いずれにしてもOrinやThorはバッテリ駆動するには消費電力が高めであるように思われるので、かなりクロックを抑える必要があると思われる。しかしOrinのベンチマークスコアSwitchに搭載されたTegraの8倍程度はあるようなので、クロックを抑えたとしてもかなりの性能のジャンプアップは見込めるとは思われる。

とはいえNVIDIAプロセッサ供給状況は不透明なので、任天堂は別の手段を考えているかもしれない。

ひとつは汎用のARMプロセッサGPUを組み合わせたSoCを使う、つまりSnapdragonKirinやDimensityを採用する可能性。

スマホ用のプロセッサといえば他にはサムスンのExynosもあるのだが、サムスン製品以外に採用された例がないので候補から外す――しかし実は変化球がある。GoogleTensorはExynosのモディファイなのだ任天堂Google提携してTensor調達して載せる可能性があったりはしないだろうか?

いや、その変化球があるならば、もっと変化球として、アップルApple Aプロセッサ採用したらいいのではないか?省電力性能もGPU性能も充分だし、任天堂は(故岩田社長が)アップル大好きだったのだから提携するならアップルのほうが面白いではないか。なんならサムスンファブ製よりTSMCファブ製のほうが熊本方面が喜ぶかもしれない。

そこまで考えて、もしかしたら、任天堂Switch 2専用プロセッサ設計して搭載してくる可能性があるんじゃないかと思ってしまった。一億台売れる端末のプロセッサを、外注するより自社で設計したほうがいい、と任天堂なら考えたりはしないだろうか。

https://www.nintendo.co.jp/jobs/keyword/59.html このページなどでも語られているが、TegraモディファイをするにあたってNVIDIAとはかなり突っ込んだ議論もしているようなので、現在ではSoC全体のデザインができるようになっていたら面白いと思う。

2024-02-20

Groqについて

数年前は、TSP(Tensor Streaming Processor)と呼んでいたが、LPU(language processing unit)と名前を変えた?

数年前のチップをそのまま使い続けているかからないが、同じならアーキテクチャは4年前のユーチューブを見るか、アスキーあたりの記事にある。

https://youtu.be/UNG70W8mKbA?si=9VFeopAiPAdn08i_

要は、コインパイラで変換が必要。なので提供されているLLMモデルが限られている。


SRAMを240MB(230MB?)しかない。

PCIeボードが400万くらいらしいが、SRAMの容量が小さすぎて1ボードでは動かない。

DRAMレイテンシSRAMではないので早いのだ、という意見も見られてたが、

1チップSRAM容量が小さすぎるので、チップチップ間、ボードボード間の通信レイテンシは必ずあるはず。

(数ヶ月前から性能上がっているのは、このあたりのチューニングのはず)

DRAMレイテンシというが、これも今どきはレイテンシ気にしないように隠蔽するはず。

チームが小さすぎてハード作れなかった可能性もあるが・・・。DMACでチューニングしているか


ボードにでかいDRAMが載せられるのであれば、そちらの方がボードボード間の通信時間より減るのでは?


グローバルファウンドリ14nmで既に1ボード250Wほど。

GF使ったのは、おそらくAMD設計者が居たからでは。デザインルールどこ破れば性能でるかある程度わかってたとか。1GHzくらいなのは知見なしでやってるとそれくらいで上限くるのはそうだと思う。

チップ世代更新するかはわからないが、兎にも角にも電力下げて、チップ大量に載せて、チップチップ間の通信時間を下げられるか。

2023-07-03

anond:20230703165620

1日2日経って「MediaTek最高!」「時代はDimensity」とか言ってた連中が恥ずかしげもなくTensorに戻ってきてる現状を見て、この国の大半はバカから問題なし

2023-05-24

GOOGLE TENSOR G2(Pixel7)とAPPLE A13 BIONIC(iPhone11)

https://b.hatena.ne.jp/entry?url=https%3A%2F%2Fb.hatena.ne.jp%2Fentry%2F4736894419596435141%2Fcomment%2Fty356trt5

これについて

https://unite4buy.com/ja/cpu/Google-Tensor-G2/

>Google Tensor G2のAntutuベンチマークスコアは約808794ポイント、GeekBenchテストスコアは3315 / 1087、3Dmarkランキングは6398 です。パフォーマンスはMali-G710MPGPUによるものです。

https://unite4buy.com/ja/cpu/Apple-A13-Bionic/

>Apple A13 BionicのAntutuベンチマークスコアは約621163ポイント、GeekBenchテストスコアは3466 / 1333、3Dmarkランキングは7578 です。パフォーマンスApple 4 core GPUGPUによるものです。

GeekBenchと3Dmarkの2/3でAPPLE A13 BIONICが上という結果

ただAntutuが示す総合性能はTensor G2がだいぶ上(APPLE A14 BIONICより上)、

同ページのゲーミングパフォーマンステストTensor G2の方が好成績

GeekBenchの結果だけで同程度というのは疑問です

2022-11-27

anond:20221127170030

「「認知性差議論の複雑な事情」 坂口菊恵 東京大学 2017

https://www.jstage.jst.go.jp/article/sjpr/60/1/60_105/_pdf

さらに,脳梁の太さの性差疑義が呈された(Bishop & Wahlsten, 1997;Wallentin, 2009)

脳梁の形状や,白質神経線維接続状態拡散テンソル画像分析(diffusion tensor imaging: DTI)を用いた脳の左右接続についての研究現在も行われており,大規模なデータを用いて女性の方が脳梁は太かった(Ardekani, Figarsky, & Sidtis,2013),左右脳の神経接続女性の方が強かった(Ingalhalikar et al., 2014)という報告がなされている。この差は子どもでは小さいものの,思春期・若年成人期(20前後)に大きくなり,その後再び小さくなっていく。

脳梁性差は無いとは現時点では言えないみたいだね。あるというのも確定したわけではないみたいなのでその点は訂正しておくが。

2021-11-05

スマホSoCの性能だけでみるやつなんなん?

スマホSoCの性能だけでみるやつなんなんだろう?

Pixel6は888より弱いから云々」ってコメントを見るとちょっと腹が立つ。

かにTensorチップの性能はSnapdragon 888よりちょっと劣ってる。

けれど、ハードウェア的には、スマホでやれることのほとんどは負けていないと思うし、

ソフトウェア的には、音声認識機能画像編集機能などはどのメーカーより勝てていると思う。

つまるところ888を積んでるか積んでないか、じゃなくて何が出来て何ができないか、を見て買うか決めるのが良いと思うんだよな。

……ちなみにこの記事書くにあたって888搭載スマホ一覧は一通り目を通した。やっぱ中華スマホもいいなぁって思った。

別にPixelだけを推したいわけではなく、888が積んでないか云々言うやつに向けて書いてることはわかってほしい。

2021-10-27

anond:20211027021754

Samsung の Exynos に Tensor Processing Unit の縮小版載せた熱々 SoC

買収した htc 由来のいつまで経ってもこなれないデザイン

認識率が悪いと評判の画面内指紋認証

もう6代目なのにまだこれからなのか……

2021-10-06

anond:20211006151703

pixel5はそもそもtensor載っけるつもりが開発が遅れて、tensorやめる!と判断した時にギリギリ調達できるSoCがミドルスペックのやつしか無かったからミドルレンジになった説

anond:20211006151337

でもpixel6はtensorとか言う自作チップが載るらしいじゃん

実際の実力は知らんけど、噂だとスナドラ888より気持ちいくらいらしいで

2021-07-04

anond:20210703170600

これがわかりやすいんじゃん。高校生向けの教材らしい ↓

The weirdness - and the logic - of the principle of invariance of the speed of light

https://newt.phys.unsw.edu.au/einsteinlight/jw/module3_weird_logic.htm

 

あと教科書に載っている光速不変の原理については誰もが直感に反すると思っていると思う

直感に反する』とかい理由からではないが、科学者も真面目に光速変動理論みたいなのやってるよ

▼ The critical geometry of a thermal big bang

https://journals.aps.org/prd/abstract/10.1103/PhysRevD.94.101301

We explore the space of scalar-tensor theories containing two nonconformal metrics, and find a discontinuity pointing to a “critical” cosmological solution. Due to the different maximal speeds of propagation for matter and gravity, the cosmological fluctuations start off inside the horizon even without inflation, and will more naturally have a thermal origin (since there is never vacuum domination). The critical model makes an unambiguous, nontuned prediction for the spectral index of the scalar fluctuations:

nS=0.96478(64). Considering also that no gravitational waves are produced, we have unveiled the most predictive model on offer. The model has a simple geometrical interpretation as a probe 3-brane embedded in an EAdS2×E3 geometry.

 

英語科学読み物記事
Theory that challenges Einstein's physics could soon be put to the test | Imperial News | Imperial College London

https://www.imperial.ac.uk/news/176127/theory-that-challenges-einsteins-physics-could/

  

日本語科学読み物記事
かつて光は光速よりも速かった説を証明するかもしれない数値「0.96478」。光速変動理論先駆者発見 - Engadget 日本版

https://japanese.engadget.com/jp-2016-11-29-0-96478.html

インペリアルカレッジロンドン研究者が、光の速度が変化するという説を証明するかもしれない数値を発見したと発表しました。その値は「0.96478」。いったい一体何を言っているのかわからないと言われればそのとおりですが、今後この数値の正当性実験観測によって証明されれば、宇宙の成り立ちの常識が大きく覆されるかもしれません。

  

宇宙では、あらゆる方向から宇宙背景放射と呼ばれるマイクロ波が飛んで来ています。これはビッグバンのあと40万年後ぐらいまでに放出されたごく初期の宇宙の光の名残とされ、そのスペクトル指数は0.968と観測されています研究者発見した0.96478は、さらビッグバンに近い、より古い時期のスペクトル指数値を理論的に導き出したもの。0.968と0.96478ではほとんど誤差じゃないかとも思えるものの、この差が観測によって正しいと証明されれば、太古の光は現在よりも速かったといえるわけです。

 

今回の数値を発見したジョアオ・マゲイジョ教授は、光速変動理論先駆者として知られる人物現在宇宙では片側の端から反対側の端まで、たとえ光の速度でも宇宙ができてからの年月以内にたどりつくことができない地平線問題という矛盾があります宇宙に光の届かない場所があるならば、宇宙場所によって温度にムラができなければなりません。ところが、実際は宇宙空間のどの場所でも温度は均一です。この問題解決するのが、ビッグバンが起こったような宇宙の初期ほど光は高速だったと考える光速変動理論です。

 

一方、現在主流なのは光の速度は一定だとする一般相対性理論に基づくインフレーション理論インフレーション理論は地平線問題解決できるものの、ビッグバンの後、急激に宇宙が膨張した「インフレーション」があったとする"特別な条件"が必要で、この点については何の証明もされていません。もし、マゲイジョ教授らが発見した宇宙背景放射のスペクトル指数値が観測によって正しいと確認されれば、インフレーション理論だけでなく一般相対性理論の一部もなんらかの修正必要になるかもしれません。

 

おまけ:こういうネタで遊べるサイト

Physics Forums

https://www.physicsforums.com/

 

あとTwitter海外情報見てると物理ネタ宗教ジェンダー否定に繋がる生物学ネタはシュバる人多いなって思ってる

世界中どこも民度変わらんわ

2020-09-17

Intel、最大56コアになった第2世代Xeonスケーラブル・プロセッサ

https://pc.watch.impress.co.jp/docs/news/1177791.html

まだ32コア64スレッド だけど

64コア128スレッドは目前 Xeon だからCPU構成というのがもしあれば

CPU 512コア 1024スレッド

というのが夢ではなく、普通にハイエンドサーバというのが現実だねという話が 去年で いま2020年で11世代Xeonの話があって 嘘ニュース書こうにも

千コアでせーん 千は何処だー というのが危なくて、今年のエイプリルフールネタには使えないよというネタをご理解いただきたい お願いしま

 

まともに考えるとManyコアと言う話はずっと前のIntelが出していたけど売れず

今は NVIDIA RTX世代GPUで2048コアというのをやっている。

https://on-demand.gputechconf.com/gtc-il/2018/pdf/sil8140-optimizing-cuda-applications-for-the-volta-turing-gpu-architecture.pdf

RTX Vt100世代

当然GPUのコアとCPUのコアはそのままで比較できないけど

GPUは同時スレッドいくつというとTensorコアで2048スレッド

CPUでいうと千コア時代を先取りできる時代がもう来ていて、みんなベンチマーク必死に書いている

前の世代のVT80が1024スレッド同時実行(ただしGPUコア)

 

なので、千コアというのは空想ではなく、近未来予測しかない。そりゃ出るだろうし、8WayXeonサーバとか夢でもなんでも無い。

から、少なくとも空想りぷではないが、千コアだと夢がないので しょうがいから、マンコアっていって

コロナ時代を笑って乗り切らないと、どうすんだという話

そのうえで、いちおうIntelとかNvidiaとか 業界では知らない人がいないし、仕事したことがある人も多くて下手すりゃ営業さんが本人知ってるようなところを選んどくという話

 

言いたいことは、すげーよくわかる。でもこれが、GPUが6000スレッドを超えるマシンが100万超えだけど本当に発売された

CPUでいうと千コアの時代がもうすぐだね という話を 小学生が聞いて

じゃぁ、次は1万コアだ!と 冗談で言い始めたとき

どういう被害が巻き怒って、大人フルボッコにされるかとおもうと

俺で良かったと思うとともに

なんか、失業もしたし会社通報したやつもいたんだろうなと思ってる

小学生フルボッコになって

学校からクレーム出たほうがよかった。

 

本気の技術者で、いわゆる理系はてな掲示板で 1万コアという単語卑猥意味で使うか現実的な科学技術で使うかを

コロナ中の人の心がすさんでいる

ということを考えた上で ただのサラリーマン

本気で噛み付く人がいた

ということを お願いだから 考えてほしい 言わなくていいなら おれはほっておくが 1万コア相当2万スレッド

というわだいは、これはいま2千スレッドは 本当に発売されている

という現実を見た受けで お考えいただきたく 

 

あるいみ、コロナ暴動が起きやすいか

僕たちがやります

と よしもと芸人さんたちが、やってくれるなら、ぜひとも お願いして

俺ら一般人Xeonの型番書いて 技術的なネタだけを本当にいいたい

だけど、どう考えても小学生は 千コア千コア せんはどこだーって言うぞ。 そうすると次なんて言う冗談掲示板大人のフリして書き込むかをみなさんでお考えいただきたい

そんなつもりでやったわけではないが

現実そういうふうに突っ込まれると たしかn 俺にも 1万コアの時代 というのは卑猥に聞こえてきた

2020-04-16

anond:20200416005707

知らんけど、パッと見た感じNVidiaのVolta世代プロセッサと大して変わらんように見える>MN-CORE

ワイもこの辺ようわからんのだけれど、Tensorプロセッサってだけだと今はどこも同じようなの作ってるんだし大して価値は無いんじゃね。

省電力だけを売りにして、それが求められる市場ってどこよ感あるし。つーかVolta世代のAGX Xavierとか入手性めちゃいい(普通に通販で手に入る)し、少なくともTensorFlowサポートしてるし、そっちのMN-Coreなんちゃらもいろんなアプリ用のサポートとかないと「ただの作ってみたオナニー」にしからんちゃうの?

2019-09-06

エラーメッセージの読めない人間がいる」ってよく嘲笑対象にされるけど

例えば以下の文章メッセージで出力されてた時にエラー根本原因が即わかる奴っているのかよ…

[ts]

型 '{ inputs: SymbolicTensor; outputs: (SymbolicTensor | Tensor<Rank> | Tensor<Rank> | SymbolicTensor)[]; }' の引数を型 'ContainerArgs' のパラメーターに割り当てることはできません。

プロパティ 'outputs' の型に互換性がありません。

型 '(SymbolicTensor | Tensor<Rank> | Tensor<Rank> | SymbolicTensor)' を型 'SymbolicTensor | SymbolicTensor' に割り当てることはできません。

型 '(SymbolicTensor | Tensor<Rank> | Tensor<Rank> | SymbolicTensor)' を型 'SymbolicTensor' に割り当てることはできません。

型 'SymbolicTensor | Tensor<Rank> | Tensor<Rank> | SymbolicTensor' を型 'SymbolicTensor' に割り当てることはできません。

型 'Tensor<Rank>' を型 'SymbolicTensor' に割り当てることはできません。

型 'Tensor<Rank>' にプロパティ 'sourceLayer' がありません。

const image: tf.SymbolicTensor

2019-09-03

tensorflowって機械学習エッセンスを覚えるのに不出来すぎひん?

ただの一次元配列tensorやらなんや適当用語ラッピングしてたりするのはともかくとして、単純にクラスライブラリとして全然抽象化できてなくね?

model.eavluate()とか掛けた時に帰ってくる型はTensor or Scalarなんだが、

実際にprint()とかする時にTensor<Rank>にはPrint()メソッド無いよとか言われるし。

なんで実数or配列が入ってることが分かってるのにわざわざTensorキャストしなきゃいけんのや。

もっとこう…なんか抽象化しきった機械学習ライブラリとかないのか。

2019-06-08

GoogleStudyJamで機械学習をやりながら、俺は今雰囲気でBigQueryに触っていると呟いてから一ヶ月、やっとTシャツが届いた。

CodeJam以来だから十年近くあいての二枚目グーグルシャツである

胸にTensor Flowロゴがちょんと載ってる。先日いただいたスタックオーバーフローTシャツとどこか少し被ってる感じを受けたのは気のせいだ。

それはそうと材質はかなり良い。プリントTシャツとしては高級に近いものが送られてきた。なんたって縫製が丸胴である。縫い方が違う。側面に縫い目がないそれは表裏を大きく使えることから大胆なデザインTシャツというまな板に広げることができるのだ。なのにロゴはつつましく左胸にあるだけ。シャツという名の自由を許されたキャンバスの大きな無駄いである。

今回はコードジャムなんかと違って参加条件はゆるゆるだ。機械学習ラーニングを4つ以上受けるだけ。参加したら確実に貰えるであろう。その参加者にこんなTシャツを送るとは。。

大量発注でも単価は500円は硬いはずである。割と大々的に発表してたし参加者は1万人以上は硬いだろう…グーグル資金力を目の当たりにしてしまった。レッドハットのTシャツなんて一度も貰えたことないのに!(ほしい)

送り主は未だ六本木ヒルズタワー44階であった。そうか渋谷にお帰りになるのはまだ先か……森ビルに務める知人が40f以上に行くエレベーターの中でゴールドマン・サックスグーグルの人と一緒になるの嫌だーっとぼやいていたがそれももうすぐである

案外Tシャツなんかより欲しかったのはこっちだったかもしれない。

2018-10-09

intelの最新CPU、HT切るのは流石に時代遅れなんちゃう

HTTとか聞いても放課後ティータイムくらいしか分からんけれど、64ビット計算機を上手いこと利用して32bitx2として計算させるのがHTTなんやろ?

今の時代Tensorプロセッサ代表されるように、8ビットベクトル演算計算機を大量に積んで同じトランジスタの数でも速度の面で32ビットの4倍とかで処理できるようにしてるのがメインストリームちゃうの。

HTTさらに分割して8ビット演算器x8にした方が、機械学習()とかやってるユーザにとっては有利なんちゃうん?

なんでintelHTT省いてまうんや…

ログイン ユーザー登録
ようこそ ゲスト さん