2008/06/15(日)とある電子パーツ屋さんをみてたら

MPC78などの抵抗やニッコームなど、マニア好みのパーツを扱っているアスカ情報システムさんをふと眺めていると

06/11 2SK170-BL/2SJ74-BL 取り扱い開始しました

そういえばこの前若松通商に言ったら、2SK170が店頭から切れてました。2SK170-BL/2SJ74-BLはいつからこんなに売れるようになったのでしょうか(^^;

しかしこちらの方、個人でどうやってここまで部品調達してるのかいつも不思議です。キットなんか作るとパーツ仕入数のケタが変わってしまうのですが、数が増えてくると小売店で買うわけにはいかずいつも困っています(汗)*1

*1 : たぶん今やったら店の在庫が切れたり色々楽しいことが起こります。

2008/06/12(木)部品の整理

今日は大量に増えた部品を整理してました。

処分品

欲しいときに手元に部品がないと非常に困るので、あれもこれもと余剰在庫品が増えてくるのですが、ちょっとしたパーツ屋ができそうなぐらい増えてきたので処分することに。

ジャンク抵抗

大昔、まだ大してお金もなかったころ、鈴商の袋詰めジャンクを買って抵抗値ごと(100~990Ω、1k~9.9k……)に分類しておいてあった抵抗。最近、カーボン抵抗をE6系列でほぼ買いそろえたので処分することに。

はじめは誰かにお裾分けしようかと思ったのですが(例えば工業高校の研究部とかか)、こんなもん欲しい人もいないだろうってことでゴミに。

謎の大量買

「確かに買った記憶はあるが何の部品が今もって不明」という雷のサージ避けだかの素子や、もっと謎の素子。封も開けてない新品をそのままゴミへ(汗

DACとかICとか

秋月で、何を思ったのか買ってしまったNECのオーディオDAC(16bit)とか、数年前千石で買ったADCチップ(今時PICで足りてしまう)とかを処分。もちろん新品

コネクタなど

その他、大量にあるD-SUB25などのコネクタも処分。昔、プリンタ接続(パラレルポート)でPCから操作する回路を作ったんですよね…。一度そういうのを作ると、予備の大量買い込みが……(汗)

D-SUB9はまだ使うことがあるのでの残しました。

セラミックコンデンサ

アキシャルリードのセラミックコンデンサ/積層セラミックコンデンサを処分しました。(積層)セラミックについてはチップ(1608)で十分です(むしろそっちの方が性能が良い)。

教訓

  • いつ使うか分からない予備は買わない。
  • ジャンクパーツには手を出さない。
  • 大人買いに気を付ける(汗)。特に物理的に大きいもの。

2008/06/07(土)秋月で買ったICのSN比

LT1054がほしかったので秋月で通販しました。ついでに、LME49720も買ってみました。

しかし玄人(?)にはSN比が悪いなー、秋月の包装は。石だけスポンジに差して送ってくれれば十分なんですけどね。昔はありがたかったデータシートも今時ネットで手にはいるし。100個とか頼んだら、包装解くだけで嫌気がしますよ(汗)

それでも、外のどこよりも安いから買ってしまう。

ちなみに、LME49720聞いてみましたけど、案の定LM4562との違いが分かりませんでした。20円高い方買う意味ないと思う。U55SXに差してみたけども、やっぱりLM6172のほうが上ですね。

2008/05/30(金)どんなエンジニア?

ハードが分かるソフトウェアエンジニアか、ソフトが分かるハードウェアエンジニアかというお話になりまして、ここはハードウェアエンジニアだろう、むしろそうなってくれ! とか言ってたたらこんなお言葉を。

料理のできるソフトエンジニアってのはどうでしょう?(爆)

それだっ!(笑)*1

*1 : 自分は、料理のできるハードウェアエンジニアです。

2008/04/30(水)「Googleを支える技術」を読んだ気分になる要点

はてなのnaoyaさんのところで見かけて購入したこの本。あれだけ巨大なシステムがどうやって動いているのか、興味深いところが解説されていてとても面白かった。

よくあるサーバの考え方

よくC10K問題といってクライアントが1万人を越えた途端、どんなシステムでも耐えられなくなると言われています。この先をどうやって維持していくか。はててやmixiなどでは、

  • DNSによるサーバグループの切り離し(障害発生時)
  • リバースプロクシによる負荷分散
  • データベースレプリケーションによる負荷分散、障害対策

普通サーバと言えば、とりあえずRAIDをして、電源ユニットを冗長化して、とにかく基幹システムが壊れないように構成します。基幹システムが落ちなければ、サブシステムは基幹システムによって障害対応しようというものです。

Googleの考え方

システムは、普通のPC(それもハイパフォーマンスPCではなく、コストパフォーマンスのいいPC)を使います。メモリもそこそこ、HDDはIDEディスクです。ネットワークは100Mbpsや1000Mbpsの普通のLAN。

その代わり、マシン台数を増やすことで徹底した負荷分散を行います。

しかしこれ、言うのは簡単ですが実際どうするのか。Googleのもっとも優れたところは、このような負荷分散システムを作り上げたところにあります。

ファイルシステムやデータベースシステムなどは「実に単純な機能」を効率的に実装します。例えば、GFS(Google File System)にはファイルの読み込みと書き込みの機能はあってもオフセットを指定して書き換えたりできないそうです。必要なら読み出して再度書き込むべしという具合です。

書き込みは多くのPCに分散・冗長化して行われ、障害発生時の切り離し対策を何重にも行って対応します。逆に言えば障害対策はすべて「障害発生PCの切り離し」によって復旧するということを徹底して行っています。

そして基幹システムの Chubby は、どれかが特別に優先するわけではなく、複数マシンによる合議制によって作られていて、半数以上のマシンが停止しない限りシステムが稼働し続けるように作られています。

まるで本を読んだかのように自慢できる、要点

  • PCの中身は冗長化しない
  • PCの数を用意するだけで冗長化・障害対策できるシステムを構築する
    • コピーを複数作り障害が起きたら自動的に切り離す
    • 早急に別の新マシンを起動させデータを自動的にコピーする
  • PCの数を用意するだけで性能が向上するようにシステムを構築する
    • 大きなデータは複数のブロックに分割し、手分けして処理をする
    • このような手分け処理をシステム化(ライブラリ化)する

asin:4774134325