2012年1月27日金曜日

エルピーダの次世代 ReRAM

エルピーダ、2013年に8Gbitの抵抗変化メモリを製品化へ
http://pc.watch.impress.co.jp/docs/column/semicon/20120126_507306.html

エルピーダの次世代ReRAMの構造は、DRAMのキャパシタ形成技術を生かした縦積み構造のRRAM素子を、やはり縦積みの3Dトランジスタの上に形成するというものだそうだ。

ところで、エルピーダはPCRAMの開発からは撤退してしまったようだ。
現在は相変化メモリの開発からは完全に撤退している

2012年1月20日金曜日

富士通とルネサスの3次元実装技術

はんだ使わずCuバンプ同士を低温で接合、
富士通研究所が3次元実装向けのチップ接続技術を参考出展
http://techon.nikkeibp.co.jp/article/NEWS/20120118/203716/

積層するチップ同士を接続する技術の展示。

Cuバンプを切削してできた平坦面同士を熱圧着することで接合する技術だそうだ。切削面は非晶質であるため、低温で再結晶化し、接合されるということだ。
マイクロプロセサとキャッシュ・メモリの積層接続などに利用できる。2018~2020年ころのハイエンド・コンピューティング用途に向ける。

とあるが、将来のスパコン用プロセッサなどに使おうとしているということだろうか。

ルネサス、Wide I/O DRAMに対応したモバイルSoC向けTSV技術を2013年に量産化
http://techon.nikkeibp.co.jp/article/NEWS/20120118/203715/

こちらは、モバイルSoC向けTSV技術の展示。
Wide I/O DRAMは(中略)1200端子のマイクロバンプを介してSoCの背面に積層接続されるため、SoC側にはTSVが必要となる。
ロジック側に穴を開けるわけか。
TSVを導入すると、SoCの回路レイアウトを変更しなくてはならないため、現在はTSVに合わせてレイアウト変更を施したIPを、TEGによって検証しているという。
TSVが周囲に与える影響みたいなものは、どうやって評価するのだろう。
なお、ルネサス エレクトロニクスでは先端SoCの製造を外部のSiファウンドリーに委託する方針であり、TSVの製造もSiファウンドリーに委託する考えである。
ルネサスは一部を除きTSMCに委託するはずだが、これもTSMCなのだろうか。

2012年1月18日水曜日

不確定性原理は間違っていた?

分かっていると思われる人の解説。

小澤の不等式,実験的に検証される
http://slashdot.jp/~phason/journal/545225

「後者の二項を大きくする」のをどうやって実現しているのかは、ちょっと分からない。

そして、スラドのストーリーでのコメント。

http://science.slashdot.jp/comments.pl?sid=557437&cid=2081491http://science.slashdot.jp/comments.pl?sid=557437&cid=2081497http://science.slashdot.jp/comments.pl?sid=557437&cid=2081745

観測問題が解決するわけではない、と。

以下のコメントも分かりやすい。

http://science.slashdot.jp/comments.pl?sid=557437&cid=2081507

# phasonさんって何者なんだろう…

2012年1月17日火曜日

三菱重工の3次元LSI用常温ウェハー接合装置

【ネプコン・プレビュー】三菱重工が300mm対応の3次元LSI用常温ウエハー接合装置を開発
http://techon.nikkeibp.co.jp/article/NEWS/20120116/203643/
常温ウエハー接合とは、真空中でイオン・ビームや中性原子ビームを半導体のウエハー表面に照射することによって接合面を活性化し、従来は加熱して接合していたウエハーを室温で接合する技術。
加熱する必要がないため、熱膨張による歪の発生や加工精度の悪化が抑えられるだけでなく、ウェハー同士を直接接合できるため、半田や接着剤も不要のようだ。

2012年1月5日木曜日

NEC の次世代スパコン


世界一よりも世界のトップクラスを――次世代スパコンの開発を始動するNECの狙い
http://www.itmedia.co.jp/enterprise/articles/1201/03/news001.html

「次世代機の開発ではTOP500を意識してはいない」ということで、LINPACKは捨てるということのようだ。

この記事について、似鳥先生。(Togetterもどき)


http://twitter.com/#!/k_nitadori/status/154745342171164672
アムダールの法則の典型的な誤用といえましょう。数式と数字を一人歩きさせるとこうなる。
http://twitter.com/#!/k_nitadori/status/154745855092592640
個々のCPUが強力な方が便利というのは間違いない。でも個々のCPUでもきっちりベクトル化できてないといけないわけでして、、、
http://twitter.com/#!/k_nitadori/status/154746176313376768
今の数字なら全部スカラーでおk「演算性能を優先するものはスカラーで、メモリ性能を優先するものはベクトル型でというように、効率的に計算ができるようになります。」
http://twitter.com/#!/k_nitadori/status/154746384531210240
だから全部(ry「演例えば、データの初期処理はスカラー型で行い、ベクターで計算して、その結果の検証は再びスカラーで行うといった連携型のワークフローが可能になります。運用形態もユーザーの必要に応じて変更できるようになります」
http://twitter.com/#!/k_nitadori/status/154746744977104897
あこれならありうる。「例えば、データの初期処理はx86で行い、京で計算して、その結果の検証は再びx86で行うといった連携型のワークフローが可能になります。運用形態もユーザーの必要に応じて変更できるようになります」
http://twitter.com/#!/k_nitadori/status/154759397980127232
スケーラビリティを制限しているのは0.1%の逐次処理部だ、というのがほとんど事実誤認で、というかその理屈では到底ベクトルを正当化できない。ベクトル機のデザインとしてスカラ部にもベクトル部の1割ぐらいの性能は持たせましょう、というのなら間違いではないのだけど。
逐次処理部を速くするには、ベクトル型CPUではなく、速いスカラ型CPUを使うべきってことでしょうか?

2012年1月1日日曜日

謹賀新年

あけましておめでとうございます。今年もよろしくお願いいたします。