2010年3月4日木曜日

Ubuntu 9.10 でlogwatchをインストールして設定

基本的に以下のサイトを参考にすればOK。
postfixも自動で入り、特に設定なしでどこへでもメールを送れる。

2010年2月17日水曜日

Google Plugin for Eclipse のインストールでハマった

     Google App Engine をいじってみようと思い、スタートアップガイド(http://code.google.com/intl/ja/eclipse/docs/install-eclipse-3.5.html)のとおりに開発環境のインストールを行ったのですが、EclipseからGoogle Pluginをインストールする段ではまりました。なにやら依存しているファイルが足らずインストールできない模様。調べてみたところ、Eclipse のオフィシャルリポジトリのURL(http://download.eclipse.org/releases/galileo)を、ダウンロード先に追加してやれば、必要なファイルを自動的に持ってきてくれて、インストールはうまくいきました。

2010年1月28日木曜日

EeePC (4G-X)へのUbuntu Netbook remixの導入

あまり更新せずに放置しているのもあれなので、備忘録代わりのメモでも書いておきます。


Eee PC 4G-X は、出先でのテキスト入力に使えればと衝動買いしたのですが、そもそも遠出することがあまりなく、比較的長期間滞在する場合にはもっと高性能なノートPCを持って行ってしまうため、なかなか活用する機会がありませんでした。ごく最近、余ったモニタに接続して、いわゆるミニPCのような使い方をしていました。これはこれで、寝る前にちょっとwebを見たり、作業をするのには便利でした。回転部がCPUファンのみなので静音ですし。

ところで、私がこのサブマシンでやりたいことは、大きく分けて次の二つです。
  • Web閲覧、Webサービス利用
  • プログラミング・コーディング
前者はGoogle Chromeのおかげでほぼストレスなく行うことができます。後者については、puttyで外部サーバに繋いで作業していました。しかし、emacsなどのXアプリケーションを表示するためには、ローカルでXサーバを動かさねばなりません。Windows 環境では例えばcygwinなどを導入する必要があります。Eee PCのストレージは、内蔵SSDが4GB、SDHCカードが4GBしかなく、あまり大きなソフトは入れたくありません。さらにいうと、cygwinは日本語環境の構築がやたら面倒、というかうまくいったことがなく、さらにリポジトリの管理にも問題があるように思えました。

そんなわけで、いっそのことEee PCにLinuxを入れてしまったらどうだろう、と思ったわけです。試験的に、内蔵SSDのWindows環境はそのままに、SDカードの方へLinuxをインストールすることにしました。本当は大容量のSDカードを買ってきてインストールした方が良さそうなのですが、とりあえずお試しということで、4GBのSDカードにインストールしてみます。

インストールするディストリビューションは、はやりのUbuntuで、かつNetbook向けとうたっている、Ubuntu Netbook Remix を選びました。
インストール自体はここに書いてあるとおりです。isoファイルを落とし、いったんWindows環境でマウントして、中の usb-creator.exe を使って起動用のUSBメモリーを作成します。私は1GBのTranscendのメモリーを使いました。

ここで、ちょっとはまったこと。起動用USB作成時に、
discarded on shutdown, unless you save them elsewhwere
にチェックを入れておかないと、UbuntuをUSBメモリーから起動したときに、こけるかもしれません。参考URI:

ちなみに、Ubuntu Netbook Remix は、インストール時に最小でも2GBの空き容量を要求するみたいです。ネットブック向けにしては大きすぎるように思えますが……。

インストール自体はまったく問題なく終了しました。Linux用のパーティションにはSDカードの3.1GBほどを使用し、残りの800MBほどはWindowsと共有することになりました。

最後に Ubuntu Netbook Remix を触ってみた感想を、Windowsとの比較を交えつつ箇条書きします。
  • 3.1GBのディスク領域のうち、2GB弱をすでに使用済み。ただし、Open office やグラフィック関係のソフトなど、明らかに使わないソフトをアンインストールすれば空きはかなり稼げそうな予感。
  • GUIは(よくチューンされた)Windowsより、ややもっさりといった感じ。ここは仕方のないところ。
  • ブラウジングも同様だが、これはGoogle Chrome のおかげでかなり改善されている。メールや文章作成もGoogle Chrome 上で行えばかなりストレスが軽減される。
  • UIはなかなか凝っていてクール。
ブラウジングして情報を集め、がりがりコーディングするにはなかなか悪くないPCになった感じです。

2009年10月24日土曜日

日本語訳: シンギュラリティについてのQ&A part1 (Questions and Answers on the Singularity)

 映画「The Singularity is Near」のサイトに、「Questions and Answers on the Singularity」という文章を見つけたので、複数回に分けて翻訳してみます。
 ざっと読んだ感じだと、Kurzweilの同名著書における主張の要約になっているようなので、シンギュラリティの考え方について手っ取り早く知るにはよい文献でしょう。Kurzweilの文章は回りくどい上に、「質問者」が明らかにKurzweil本人なので、ぜひ、眉に唾して読んでください。

------------------------------------

シンギュラリティについてのQ&A


シンギュラリティは近い: 人類が生物を超越するとき

Ray Kurzweil, Viking Press



質問者:シンギュラリティとは何か?

カーツワイル:
 これから四半世紀のうちに、非生物知性は人間の知性の領域へたどり着き、繊細さを獲得するほどに発展するだろう。情報知識を瞬時に共有できるという機械の特性だけでなく、情報基盤技術の絶え間ない発展からかんがみて、人間知性を超越した飛躍さえも期待できる。知的ナノロボットは我々の体、脳、周辺環境に取り入れられ、環境汚染と貧困を克服するだろう。さらに、非常に長大な寿命や、全身感覚と一体化する完全没入型ヴァーチャルリアリティ(「マトリクス」のような)、「体験送信」(「マルコヴィッチの穴」のような)、人間知性の大規模な拡張までもが提供される。結果的には、技術を生み出すものと、それによって生み出された技術的発展のプロセスそのものが、密に融合する。

質問者:それがシンギュラリティなのか?

カーツワイル:
 いや、これはその前兆にすぎない。非生物知性はそれ自身のデザインにアクセス可能になり、自分自身の改良を高速な周期で行なう。そこへいたって初めて、技術進歩のプロセスが速くなりすぎて、拡張されていない人間知性がフォローしきれなくなる時が到来する。それが「シンギュラリティ」と呼ぶべきものである。

質問者:なぜそれをシンギュラリティと呼ぶのか?

カーツワイル:
 私の本において、「シンギュラリティ」という単語は、物理の分野と似たように用いられている。ブラックホールの事象的地平線の向こう側で起きていることが極めて観測しずらいのと同様に、歴史の特異点(シンギュラリティ)の向こう側のことを予見するのは難しいのだ。制限のある生物学的脳しか持っていない我々が、今の我々よりも何兆倍にも拡張された知性を持つものたちが、未来社会で何を考えうるか、何を行いうるか、どうして想像することができるだろうか?にもかかわらず、じっさいに中に入らなくても抽象的思考からブラックホールの性質について結論を描けるのと同様に、今日の我々の思考力でも、シンギュラリティに向けて、意味のある洞察を与えるのには充分なのである。これこそが、私が本書で行おうとしてきたことなのである。

質問者:では、その点について、一つづつ伺おう。あなたの命題においては、脳の知性を機械上に取り込むことができる、という点がキーになっているようであるが。

カーツワイル:確かにそうだ。

質問者:では、どうすればそれを達成できるのか?

カーツワイル:
 この問題は、さらにハードウェアとソフトウェアの問題に分けることができる。本書では、人間の脳の全領域と同等の機能を生み出すには、1京(10^16)cps[訳注: 10Pcps]の演算能力が必要であることの理由が示されている。この値よりも、さらに数百倍ほど低い見積もりもある。スパコンはすでに100兆(10^14)cps[訳注: 100Tcps]の性能を持っており、10^16cpsの領域へは、この十年期の終りころには到達するだろう。1000兆cpsのスパコンはすでに設計段階に入っており、日本には、この十年期の終りをめどに、1京cpsを目標とした二つの計画がある。
[訳注: 一つは汎用京速計算機であると思われる。もう一つは不明。]
2020年までには、1京cpsの演算能力が、1,000ドルで手に入るようになるだろう。ハードウェア能力がこのようなレベルにまで到達するかどうかついては、私の以前の本、「スピリチュアルマシーンの時代」(1999年)においては議論の余地が残っていたが、今となっては、専門家の間では一致を見る意見である。いまや、争点はアルゴリズムに移っている。

質問者:どうすれば人間の知能のアルゴリズムを再現できるのか?

カーツワイル:
 人間の知能の原理を理解するには、人間の脳のリバースエンジニアリングが必要だ。いまや、この進歩は多くの人が思っている以上に進んでいる。脳スキャンの空間的時間的解像度は、指数級数的に高まっている。およそ一年で二倍になる。これは他のあらゆる情報関連技術と同様の傾向だ。つい最近、スキャン機器によって、個々のニューロン間の接続や、発火がリアルタイムで起こる様子を観測できるようになった。すでに、小脳を含む二ダースの脳の領域についての数学モデルとシミュレーションが存在し、それらで脳の半分以上のニューロンを占めている。10,000個の皮質ニューロンの、数千万の接続を含んだシミュレーションがIBMによって構築されている最中である。最初のバージョンでは、電気的活動がシミュレーションされる予定であり、将来的には関連する化学的活動もシミュレーションされることになっている。2020年代の中ごろには、脳の全機能の有効模型が完成すると結論しても、控え目なくらいだろう。

質問者:では、その時、我々は脳を単純にスパコンの中にコピーしたことになるのか。

カーツワイル:
 私はむしろこう考えたい。その時点において、我々は人間の脳の用いている方法について、完全な理解を得たことになる。一つの利益は、我々自身についての深い理解だ。しかし鍵となるのは、人工知能のツールキットが、それによって拡張される、ということだ。そうすれば、我々は非生物的システムに、人間と同等の知性を、人間が使っていた優れたアルゴリズムを実装することで、持たせることができる。例えばパターン認識能力がそうだろう。そのような、超知性的コンピュータは、知識とスキルの電子的速度での共有のような、我々のできないこともできるのだ。

2030年には、1,000ドルの演算能力が、人間の脳の1,000倍強力になるだろう。忘れてはならないのは、コンピュータは、今現在とは違って、個々の物体として構成されている、というわけではないということだ。演算能力網は、環境や我々の体、脳に深く組み込まれていることだろう。

質問者:AIツールキットとのことだが、AIは期待外れに終わったのではなかったか?

カーツワイル:
 1980年代には、AIのブームと挫折のサイクルがあった。似た構造は、最近では電子商取引や遠距離通信にも見ることができる。[訳注: ITバブルの崩壊のようなことを言っている。2000年代初頭にかけて、IT関連銘柄は過剰に期待されたが、結果的に失望されてバブルは崩壊してしまった。しかしその後も、情報技術は進展をとげ、なくてはならないインフラとして現在の社会に根付いている。]このようなブームと挫折のサイクルは、真の革命の先駆者がしばしば経験するものだ。19世紀の鉄道ブームを思い出すと良い。しかし、インターネットの「挫折」がインターネットの終焉を意味しないのと同様に、いわゆる「AIの冬」が、AI研究の終焉を意味しているわけではない。何千もの「限定的AI」(=特定のタスクにおいて、人間と同等かそれ以上の能力を持つ機械知性)が、現在のインフラに浸透している。あなたがメールを送ったり、携帯電話で電話するときはいつでも、知的アルゴリズムが情報をルーティングしているのだ。AIプログラムは、医者に匹敵する精度で心電図を見て診察を行い、飛行機を離着陸させ、自律兵器を誘導し、自動化された投資判断により一億ドル以上の資本を動かし、工場のプロセス管理を行う。これらはすべて、過去二十年間のAI研究の成果なのである。もしも世界中のすべての知的ソフトが機能を止めてしまったら、現代社会はきしみ音をあげて止まってしまうだろう。もちろん、AIプログラムは、陰謀をたくらむほどには賢くはない。少なくとも、今のところは。

質問者:なぜ多くの人々はこのような根本的変革に目を向けないのか?

カーツワイル:
 私の本を読んでくれれば、そうするだろうが。ともあれ、第一の失敗は、多くの観察者が指数級数的な考え方ができない点にある。未来にどのようなことが技術的に可能になっているか、という長期的予測は、多くの場合、劇的に過小に将来の進歩を見積もってしまっている。というのは、彼らが「直観線形的」見方をしているからであり、むしろ正しいのは「歴史的指数的」見方だからである。私のモデルによれば、パラダイムシフトの起きる速さは、十年ごとに倍になっている。すなわち、20世紀は、世紀の終わりころにかけて徐々に進歩の速度を上げていたが、達成された進展の総量は、2000年の進歩速度で換算すると20年分でしかない。その20年分と同じだけのさらなる進展は、次は14年で達成できる(2014年)。さらに次はたった7年で達成できる。別の言い方をすると、我々は21世紀で100年分の技術的進歩を経験するのではないのだ。我々は二万年分の知識を獲得することになる(2000年の進歩速度換算で)。これは、我々が20世紀に成し遂げた進展の1,000倍である。

 情報技術の指数級数進展は、さらに早い。情報技術を、コストパフォーマンス、帯域幅、容量、その他色々なものさしで図ると、年ごとに二倍に成長している。これは、十年で1,000倍、二十年で百万倍、三十年で十億倍というオーダーだ。この傾向は、ムーアの法則(集積回路上のトランジスタの小型化によって、年ごとに電子機器のコストパフォーマンスが二倍になっていくという法則)を超えたものである。エレクトロニクスは、一つの適用例にすぎない。別の例をあげよう:HIVの解析シーケンスには14年かかった。一方、SARSの解析は31日で済んだ。

質問者:では、この情報技術の加速は、生物学にも同様に適用して良いのか?

カーツワイル:
 全くその通り。容量が加速的に増大する、携帯電話やデジタルカメラような電子デバイスではなくても、適用可能だ。究極的には、重要なことはすべて情報技術を含んでいるのである。2020年代のナノテクノロジーを基礎とした工業生産によって、我々は手頃な価格でテーブルにおける程度のデバイスを用いて、どんなものでもオンデマンドで製造することができる。それには、安価な「生物質」に対して、分子レベルでの物質・エネルギーの再配置を行うという情報的プロセスが関連している。

 ナノテクベースの太陽電池パネルを利用することで、エネルギーの需要はまかなえるだろう。その太陽電池を使えば、地球上に降り注ぐ太陽光の0.03パーセントを受け受け取るだけで、2030年に予想されているエネルギー需要を満たすことができる。エネルギーは、広く普及した燃料電池に蓄えられることになるだろう。

2009年10月11日日曜日

テスト投稿

    ∩_∩     人人人人人人人人人人人人人人人人人人人人人人人人人人人人人
   / \ /\   < すごい技術革新を感じる。今までにない何か新しい技術を。      >
  |  (゚)=(゚) |   < 風・・・なんだろう吹いてきてる確実に、着実に、俺たちのほうに。.   >
  |  ●_●  |   < 中途半端はやめよう、とにかく強いAIまでやってやろうじゃん。     >
 /        ヽ  < 研究機関には沢山の科学技術者がいる。決して一人じゃない。   >
 | 〃 ------ ヾ | < 信じよう。そしてともに研究開発しよう。                      >
 \__二__ノ  < ラッダイトが邪魔に入るだろうけど、絶対に流されるなよ。       >
              YYYYYYYYYYYYYYYYYYYYYYYYYYYYYYYYYYYYYYYYYYYYYY