![]() |
2021.12.18 Saturday
データセンター
GAFAに代表されるコンピューターの先端企業。
彼らはデーターを貯める、というインフラの領域に入っている。 21世紀はデーターの世紀とも言われている。 そのデーターを貯めるためにあるのが、データーセンター。 いろんなセンサーが発達し、そこでとれたデータを自動で送信して貯めるというようなシステムが簡単にできるようになって、大量のデータが集まる。 それ以外にも個人が作り出すデータの量も膨大だ。 スマホ経由で、個々人の位置情報も入ってくる。 ナビから、クルマの移動も把握できたりする。 それらのデーターは膨大なものだ。 そして、それらを解析する技術としてAI(人工知能)ができた。 貯める意味が大きくなったということだ。 あの膨大なデーターをどこにどうやって貯めているのか、不思議になる。 みんながビッグデーターなどと言っているが、それらを使えるのは貯めるインフラがあるからだ。 もちろん自社で貯めている場合もあるが、バックアップなどの手間を考えるとクラウドのサービスを使ったほうがよい、という決断がどんどん増えていると思う。 CO2削減という観点で見ると、電力に比例してCO2消費が増えていくということになる。 だからこそ、単位電力あたりたくさんのCO2を出す石炭火力が目の敵にされているのだ。 いくら日本の燃焼効率の高い石炭火力でも、CO2は多めに排出される。 ちなみに、再エネはCO2を出さないが、太陽光は夜間は発電しないし、風力は風が吹かないと発電しない。 今の技術ではそんなに大きな電気を蓄電することができないので、バックアップの電力がなければ停電してしまう。 みかけはクリーンだが、電力供給という観点からはまだまだ難しいのが現実だ。 現時点で一番CO2に関してクリーンで、使い物になるのは原子力だと思う。 イギリスでは風が吹かなかった時には、石炭火力発電所を動かしている。 脱炭素の旗を振っているイギリスでさえバックアップが問題なのだ。 しょっちゅう停電するような危ない電力など、データーセンターでは使えない。 また、データーの保管そのものの電力も必要だが、それに付帯する冷却設備などの消費も大きい。 2035年までの予想では、人類が作り出すデーターは2000ゼタバイト以上だという。 1ゼタバイトは、1テラバイト(1000ギガバイト)の1億倍だから、とにかくすごい量だ。 これらのデーターを保管するためのエネルギーは天文学的数字になるらしい。 脱炭素というのなら、現時点では原子力を使うしかないと思う。 軽水炉ではなく、新しい原子炉を使って、安全に原子力を使うことが必須だろう。 早く日本でもそういう取り組みをするべきだと思うのだが…。 |
![]() |