Slepá cesta automobilového průmyslu

Dobíjet nebo tankovat? Možná zbytečné dilema…

Současný trend automobilového průmyslu je zřejmý – elektromobilita. Tedy… komu to nepřipadá dostatečně zřejmé, tomu to natlačíme silou. Což je víceméně způsob, jakým se snaží současní politici přirozený vývoj spíše než urychlit, tak uměle nalinkovat svým „vizionářským“ směrem. V konkrétnější podobě se pak hovoří téměř výlučně o elektrických vehiklech živených akumulátory.

Ústřední motivace těchto snah je poměrně bohulibá – snížení emisí a závislosti na fosilních zdrojích. Pokud jde o emise, jeden z nejklasičtějších argumentů odpůrců elektromobility o „výfuku v elektrárně“ je přitom poměrně slabý. Elektrárna má vzhledem k objemům produkce přeci jen mnohem větší možnosti ohledně optimalizace pracovního režimu i kontroly nad emisemi a odpadními látkami, nemluvě o elektrárnách založených na obnovitelných nebo bezemisních zdrojích (jaderné elektrárny, solární panely, vodní a větrné elektrárny apod.).

Zároveň ani nelze mávnout rukou nad tím, že máme daleko větší znečišťovatele životního prostředí než jsou dnešní, již poměrně úsporná a katalyzátory vybavená, auta. Problém totiž není až tak v souhrnném množství zplodin (globální produkce skleníkových plynů lidmi jde na vrub dopravy zhruba ze 14%, přičemž pozemní doprava jen okolo 10%), ale v jejich silné lokalizaci především v městských aglomeracích. Ta vede k tomu, že na pouhém půl procentu plochy vznikne 40% všech emisí spojených s dopravou.

Takže elektrický pohon se jeví jako docela dobrý nápad. Od dobrého nápadu k dobré realizaci ale bývá většinou dlouhá a nepřímočará cesta. V současných direktivních snahách vidím hned několik úskalí. Nechme teď stranou nesmyslné dotace, kvóty, emisní limity, polické proklamace termínů elektrifikace dopravy, nesplnitelné plány rozšiřování energetické infrastruktury a různé prvky sociálního inženýrství.

Jako nejvíce omezujícím faktorem se ukazuje být v současné době nejvíce prosazovaná technologie ukládání energie, tedy klasické elektrické akumulátory a s tím spojená potřeba jejich externího dobíjení.

Jestliže je na pozadí celé snahy o eliminaci spalovacích motorů ochrana životního prostředí, potom má přechod na akumulátory smysl jen tehdy, když jejich výroba a následná likvidace nepovede jen k jinému druhu zátěže ve srovnatelném rozsahu, resp. pokud na výrobu v celosvětovém měřítku vůbec existují dostupné surovinové zdroje (i s perspektivou budoucího vývoje). Tento problém je principiálně překonatelný vyvinutím nových technologií, nezávislých (nebo méně závislých) na lithiu, manganu, kobaltu a podobných prvcích a zároveň vyrobitelných méně „špinavými“ procesy než ty současné.

Hůře překonatelným omezením, majícím principiální základ, je dosažitelná energetická hustota ve srovnání se systémy založenými na odděleném palivu a generátoru. Obecný problém akumulátorů totiž spočívá v tom, že aktivní látka (nosič energie) je integrální součástí celého energetického zdroje, zatímco u generátorů je nosič energie (palivo) od vlastního zdroje oddělen. To má důsledky jak pro měrnou hmotnost, resp. energetickou hustotu takového zařízení, tak i pro jeho bezpečnost, protože kontrola nad lokalizovaným zdrojem energie se realizuje daleko snáze. Z hlediska bezpečnosti navíc proti běžným akumulátorům používaným v současné době hraje fakt, že v sobě obsahují zaroveň i oxidační činidlo, což je činí velmi obtížně hasitelnými v případě vznícení.

Jinak řečeno, u diskrétního tandemu palivo–generátor se navýšení kapacity (nikoliv výkonu) docílí pouhým zvětšením palivového rezervoáru, což je obecně jak mnohem levnější, tak hmotnostně i prostorově úspornější přístup.

Dalším principiálním problémem nabíjecích akumulátorů je doba přenosu energie při nabíjení. Je to něco, co nesouvisí s konkrétním řešením baterie, ať už je konstruována sebedokonaleji ze sebedokonalejších materiálů, tu elektrickou energii o požadovaném množství do ní prostě přenést musíte. Přitom elektrický ekvivalent toku benzínu proudícího běžnou tankovací pistolí je i při uvažování poměrně velkého nabíjecího napětí 500V zhruba 70kA. To je dost tvrdá konkurence – této hodnotě se nepřibližují současné superdobíječky ani řádově a to si ještě zkuste představit takovou dobíjecí stanici u silnice s tuctem přípojek. Tudíž realistické využití akumulátorů spadá spíše do oblasti menších kapacit a situací, kdy není problém dobíjet menšími proudy přes noc (typicky majitelé rodinných domů a garáží).

Třítunové SUV na baterky s dojezdem 300 km za ideálních podmínek? Děkuji, nechci…

V tomto kontextu se rýsují jako lepší řešení palivové články (ať už vodíkové nebo využívající nějaké organické palivo pocházející z obnovitelných zdrojů), případně spalovací motory využívající podobných typů paliv (vodík, metanol, etanol apod.). Zároveň to ovšem neznamená, že by akumulátory byly nevhodným řešením samy o sobě. Tou slepou cestou nejsou akumulátory jako takové, ale jejich snaha cpát je do segmentů, kde mají mnohem větší perspektivu jiné technologie – doprava na dlouhé vzdálenosti, větší vozidla, uživatelé v hustěji zalidněných oblastech… Rodinné SUV pro cestu na zahraniční dovolenou s mnohametrákovou drahou baterií pod podlahou není moc rozumný nápad, ale pro denní dojíždění pár desítek kilometrů do práce dvoumístným přibližovadlem, pro skůtry, elektrokoloběžky a elektrokola, vysokozdvižné vozíky a podobné využití může být dobíjecí akumulátor dobrou volbou.

A nic na tom nezmění ani sebevětší dotace a vlhké sny politických ideologů, odtržených od reality. Budoucnost dopravy vidím v racionální koexistenci několika různých technologií (akumulátory, palivové články, nové generace spalovacích agregátů a kdoví co ještě se podaří časem vymyslet), z nichž každá bude nasazována v aplikacích, pro něž se bude v dané fázi vývoje jevit jako nejefektivnější. Koexistenci vzniklé v důsledku přirozeného vývoje a přirozené poptávky, nikoliv prosazením silou úředních nařízení.

Skončíme v černé díře?

Urychlovač LHC během instalace
Tubus urychlovače LHC v CERN během instalace.

Po havárii na nově vybudovaném urychlovači LHC v CERNu z roku 2008, která neměla povahu jaderného výbuchu, jak se něktěří domnívali, ale byla čistě technického charakteru (exploze chladícího média  – helia – v důsledku přehřátí části supravodivého obvodu) se opět schyluje k srážkovým experimentům. Při té příležitosti je stále častěji v médiích tlumočena obava z údajné možnosti vytvoření černé díry, která vzápětí pohltí celou naši planetu.

Během vysokoenergetické (řádově TeV) srážky těžkých částic (typicky protonů nebo jader olova) mohou být na velmi krátkou dobu vytvořeny natolik extrémní podmínky vysoké lokalizace hmoty a energie, že z principiálního hlediska skutečně není vznik objektu s vlastnostmi černé díry vyloučen. Faktem dokonce je, že se to očekává a jsou za tímto účelem již na LHC navrženy specifické experimenty. Samozřejmě se to takto neodborné veřejnosti běžně neprezentuje, aby nevznikaly zbytečné obavy. Jedna věc totiž je přítomnost černé díry jako takové, druhá je její potenciální nebezpečnost. Zkusím to tedy trochu vysvětlit.

Černá díraJednou z hlavních vlastností černé díry je její schopnost absorbovat vše včetně světla z časoprostorové oblasti vymezené tzv. horizontem událostí. Výjimkou jsou kvantově mechanické procesy v těsné blízkosti horizontu, které umožňují vznik virtuálních párů částic a antičástic. To pak může vést k efektu tzv. vypařování černých děr, které produkuje tzv. Hawkingovo záření (a tudíž ve skutečnosti nejsou černé díry tak docela černé). V důsledku toho má každá černá díra svou konečnou životnost, u kosmických černých děr jde však o prakticky zanedbatelný efekt. Hawkingovo záření je tím intenzivnější, čím menší je hmota díry a tudíž životnost černé díry záleží na její absolutní velikosti. Proto začíná být efekt vypařování významný až u mikroskopických objektů, u nichž jsou dominantní kvantové jevy.

Pokud tedy vznikne během srážkových experimentů v urychlovači miniaturní černá díra, v důsledku Hawkingova vypařování ztratí veškerou svou hmotu v řádu nanosekund. Aby černá díra přežila alespoň tisícinu sekundy, musela by mít hmotnost zhruba jako planetka o průměru 100 metrů (1011 kg). LHC urychlovač uděluje protonům kinetickou energii odpovídající hmotovému ekvivalentu (dle vzorce E=mc2) menšímu než 1 gram. Aby se taková černá díra nevypařila, musela by během svého jepičího života pohltit hmotu řádově nejméně 1011 kg, což nemůže stihnout i kdyby „vymetala“ své okolí rychlostí světla.

Nejsem jaderný fyzik (přestože v CERNu jsem jistou dobu pracoval, takže si to o mně leckdo myslí :), abych byl schopen posoudit případné další scénáře, které mohou proběhnout při vysokoenergetických interakcích částic v urychlovači LHC, a v mnohém nemají dosud jasno ani špičkoví vědci v tomto oboru (například výše uvedený model nepředpokládá vliv dalších faktorů, které by teoreticky mohly prodloužit životnost případných černých děr, např. přítomnost silného magnetického pole). Pokusil jsem se však alespoň vysvětlit že laická představa o uměle vytvořené černé díře, která v mžiku pohltí celou naši planetu (přinejmenším), není založena na reálných základech.

Srazí se Měsíc se Zemí?

Měsíční úplněk je běžný a pravidelně se opakující přírodní jev, podobně jako příchod ročních období. Ten dnešní je však mimořádný tím, že při něm bude Měsíc o tisíce kilometrů blíže k Zemi než je dlouhodobý průměr, za posledních 15 let tak blízko nikdy nebyl. Oběžná dráha Měsíce není přesně kruhová, v perigeu bývá o téměř 50000 km blíže než v apogeu. Ovšem dnešní hodnota je i na apogeum neobvykle nízká. Dalo by se až říci znepokojivě nízká. Měsíc bude v důsledku toho o 30% jasnější a bude se jevit na obloze o 14% větší.

V souvislosti s touto událostí se opět rozproudily diskuse na téma globálního přibližování Měsíce, které v poslední době poněkud zanikly v neméně důležité celospolečenské debatě o změnách klimatu. Tento týden mimořádně svolaný Mezivládní panel pro změnu dráhy Měsíce (IPMOC) měl na programu řadu otázek, které až nyní začínají pronikat na veřejnost. Původní práce Prof. Michaela Womanna, která je ve zprávě IPMOC citována, jasně ukazuje rostoucí trend v přibližování Měsíce k naší planetě a výpočet, dle kterého bude Měsíc již za 8 let ještě blíže než dnes (o téměř 0.02%). Extrapolace pro 21. století je pak vysloveně alarmující, vlivem dalšího poklesu vzdálenosti Měsíc-Země a s tím souvisejícího silnějšího gravitačního působení našeho vesmírného souputníka vzroste hladina světových oceánů o několik metrů, atmosféra zřídne až o 15% a vodní srážky budou padat o nejméně 9% pomaleji, což nejspíše povede k masivnímu rozšiřování pouštních oblastí.

Tzv. „měsíční hokejka“.

Nejzávažnějším závěrem vědeckých studií i ústřední komise IPMOC je však zjištění, že tyto globální změny velmi zřetelně korelují s lidskou činností, konkrétně s množstvím světelného záření, které lidstvo vyprodukuje. Womannův pečlivě zpracovaný graf ukazuje, že po téměř tisíciletém období bez výraznějších změn nastává zlom po roce 1879, kdy T. A. Edison přišel se svým vynálezem elektrické žárovky. Změny se pak v průběhu 20. století ještě výrazně prohloubily s tím, jak postupně rostla produkce umělého osvětlení.

Tuto překvapivou  závislost vysvětlil ve svém přelomovém článku Dr. Ted Bake s pomocí Maxwellových rovnic. Jak známo, světlo není ničím jiným než elektromagnetickým zářením. Magnetismus obsažený v tomto záření je superponován na přirozený magnetismus zemský a díky svému dalekodosahovému působení vytváří zvýšené silové pole zakřivující přirozenou dráhu Měsíce. V následující studii zveřejněné v loňském roce zároveň potvrdil výsledky pozorování Prof. Womenna svými přesnými statistickými daty z laserového distantmetru umístěného na palubě výzkumné geologické lodi Wobbly, brázdící vody Tichého oceánu.

Komise IPMOC i političtí představitelé valné většiny vyspělých států celého světa se shodli na nutnosti okamžitého řešení této vážné situace. Byl navržen závazný protokol, dle něhož by mělo být sníženo množství světelných emisí do atmosféry o 4% ročně až do roku 2026, kdy by byla dosažena zhruba poloviční úroveň současného stavu. Plánují se značné investice do elektrotechnických a chemických oborů a do podpory alternativních světelných zdrojů o nižší svítivosti, např. již laboratorně otestovaného pyrowaxového modulu, který bude nejen šetrnější k sluneční soustavě, ale také levnější na provoz než současné žárovky a zářivky. Evropská unie dále v nejbližší době zavede tzv. iluminační kvóty, na jejichž dodržování budou dohlížet komisaři pro geolunární záležitosti.

Objevují se bohužel také skeptické hlasy, snažící se celý problém globální změny mesíčního orbitu bagatelizovat. Několik rádobyvědeckých článků se pokouší zcela nepřesvědčivým způsobem vyvrátit závěry zveřejněné v závěrečné zprávě IPMOC a potažmo popřít naprosto zřejmý vliv elektromagnetického smogu viditelného spektra na pohyb Měsíce. Naštěstí nejde o většinový názor, neboť v širší odborné veřejnosti a postupně i v celé společnosti začíná panovat jednoznačná shoda pokud jde o neodkladnost kroků, vedoucích k navrácení našeho přirozeného satelitu do jeho původní dráhy. Není pochyb, že budou v příštích letech muset být pro tento účel vyčleněny stovky miliard dolarů, ale již nyní je jisté, že to budou dobře vynaložené prostředky. Jde přeci o zodpovědnost nás všech, celého lidstva.

Jedinou alternativou je Slunce

Jak už jsem předeslal v jednom z předchozích článků Jak získat peníze na perpetuum mobile, při výběru vhodných řešení nějakého produkčního problému (zde konkrétně výroby elektrické energie) je nejdříve dobré zvážit kapacitní omezení všech dostupných zdrojů. Zúžíme tak svůj záběr jen na cesty, které nejsou předem slepé.

Před několika týdny jsem se zúčastnil přednášky Prof. Daniela Nocery, který je mimo jiné i vládním poradcem USA pro energetiku. Budu zde vycházet z poměrně aktuálních čísel a úvah, které prezentoval. Z doby, kdy jsem se o podobné problémy začal zajímat (na konci 80. let), si pamatuji přibližnou hodnotu celkové energetické spotřeby lidstva, která tehdy odpovídala trvalému příkonu okolo 8 TW. Dle Nocery toto číslo do roku 2000 vzrostlo na 12.8 TW, v roce 2007 dokonce až na 14.6 TW.

Spotřebu energie (W) lze vystihnout poměrně jednoduchým vzorcem, který není ničím jiným, než definitorickým rozdělením do tří členů:

W = N × (GDP/N) × (W/GDP)

Co jednotlivé členy znamenají, proč zrovna takové rozdělení? Je to poměrně logické:

  1. N je počet obyvatel; čím více obyvatel, tím vyšší spotřeba
  2. GDP/N je hrubý národní produkt na obyvatele; vyjadřuje skutečnost, že čím více se vyrábí, tím více se spotřebuje energie
  3. W/GDP je spotřeba na jednotku hrubého domácího produktu; ukazuje se, že tato hodnota je napříč různými ekonomikami téměř konstanta

Vzhledem k poslednímu bodu je tedy růst W dán hlavně nárustem počtu obyvatel a zvyšující se produkcí jednotlivých zemí. Např. kdyby měly všechny země na světě stejný hrubý domácí produkt na hlavu jako USA, byla by celosvětová spotřeba více než sedminásobná, konkrétně 102 TW.

Energetický problém lidstva má tedy dvě východiska, která je možné nezávisle kombinovat. Prvním je snížení spotřeby energie, druhým zvýšení její produkce. Když se podíváme na výše uvedený vzorec, snížení spotřeby by bylo možné buď přes

  1. Snížení počtu obyvatel,
  2. Snížení celkové výroby,
  3. Energetické zefektivnění výroby a domácností,

případně jejich kombinaci.

Asi tušíte, že pokud se na to díváme realisticky, ani jedna z těchto cest není příliš schůdná a těžko ji nějak direktivně ovlivnit, snad jen s výjimkou zefektivnění výroby (u domácností bychom nejspíš narazili, neboť by to vedlo k požadavku sníženého komfortu, na který jsou už lidé díky různým spotřebičům zvyklí). Nezbývá nám tedy než se soustředit na hledání nových zdrojů energie, případně lepší využití těch dosavadních. Nemůžeme očekávat, že lidé dobrovolně sníží svoji životní úroveň (nebo životní komfort, chcete-li), ale pokud se objeví nová výhodná a cenově dostupná technologie, začnou ji časem využívat.

Budeme tedy potřebovat stále více energie. Ale kde ji vzít? Ze současných nejvýznamnějších zdrojů by nám podle dosavadních odhadů ropa vystačila (při zachování konstantní spotřeby) na jedno až dvě století, zemní plyn asi dvakrát déle, uhlí bychom pak měli na možná 1000-2000 let. Za předpokladu pokračujícího růstu spotřeby však tyto hodnoty budou spíše poloviční až čtvrtinové. Až dojde ropa, mohli bychom současné ropné produkty (paliva, maziva, kosmetika, plasty apod.) vyrábět ještě nejakou dobu z uhlí, technologie k tomu máme již nyní, ovšem bylo by to mnohem dražší.

V každém případě jde o zdroje omezené a navíc při jejich spalování dochází k uvolňování nežádoucích plynů, zejména CO2, jehož obsah v atmosféře je již nyní o třetinu vyšší než v předprůmyslové éře. Pro výrobu elektrické energie je tedy ze současných technologií nejlepší jaderná energie, která není zdrojem skleníkových ani zdraví škodlivých plynů a pro níž máme relativní dostatek paliva (řádově staletí, navíc je zde možnost recyklace jaderného odpadu). Ani to však není řešení navždy, nehledě na to, že v některých zemích je výstavba jaderných elektráren omezena nebo zcela zakázána z obavy před možnou havárií a kvůli potížím s likvidací jaderného odpadu. Ač nechci tyto záležitosti nijak bagatelizovat, s našimi současnými možnostmi je jádro jedinou rozumnou možností ve velkém měřítku.

Zároveň je však třeba intenzivně pracovat na výzkumu a vývoji nových způsobů získávání a skladování energie, které by využívaly obnovitelných nebo reálně nevyčerpatelných zdrojů. Alternativ tu máme již několik: vodní a příbojové elektrárny, větrné elektrárny, spalování biomasy, geotermální zdroje, sluneční elektrárny. Jaderná fúze je zatím pohádkou budoucnosti. Otázkou je, co z toho má potenciál vytrhnout lidstvu trn z paty.

Většina výše jmenovaných využitelných energetických zdrojů (a to i včetně té ropy, plynu a uhlí) má tak jako tak původ ve sluneční energii. Záleží však na tom, co vše stojí (a případně vzniká jako vedlejší produkt) na cestě mezi sluncem a místem, kde energii spotřebujeme, a samozřejmě také jak je tento proces účinný a jaká je jeho celková kapacita. Vezměme to popořadě:

  • Biomasa: Teoretická účinnost fotosyntézy je 10.5%, ale u reálných rostlin a bakterií se pohybuje nejvýše v oblasti 0.5-1%. Kdybychom věnovali pětinu povrchu celé země výhradně produkci biomasy za účelem energetického využití, získali bychom celkově nejvýše 7-10 TW. Zpracování i spalování biologické hmoty je navíc zdrojem již zmíněných nežádoucích plynů. Obdělávání půdy pak vede k další spotřebě a emisi zplodin, paradoxně se k výrobě „bioenergie“ využívají zcela „nebio“ fosilní zdroje. To však lze pokládat za přechodný stav, postupem času by se mohla část produkce zpětně využívat ve vlastní výrobě.
  • Vítr: Teoretický limit větrných elektráren při předpokladu průměrné rychlosti větru 5 m/s a umístění ve výšce 10 nad zemí jsou pouhé 2 TW. Celkové množství kinetické energie ukryté v pohybu atmosféry sice odpovídá výkonu 870 TW, omezená účinnost větrných elektráren a nemožnost využití atmosféry v celém jejím objemu nám však nedá k dispozici více než zlomek této hodnoty. V současné době těžíme z energie větru pouhých 75 GW celosvětově.
  • Voda: Teoretický limit využitelné energie ze všech světových toků hydroelektrárnami je z globálního hlediska nepříliš významný – 7 TW, v praxi spíše o řád méně. Dalších několik stovek GW by nám mohlo přinést využití energie příboje a přílivu/odlivu, to se ale vzhledem k výrobním nákladům potřebných zařízení jeví jako značně neekonomické. Celkový výkon pohybu oceánských a mořských vod (příboj, příliv, mořské proudy) je v řádku desítek TW, ale využitelnost je malá a v praxi omezená spíše na pobřežní oblasti.
  • Geotermální zdroje jsou na tom podobně, ani při nejlepší vůli z nich nevytěžíme více než několik málo desítek TW.
  • Slunce: Teoretický limit je úctyhodných 120 000 TW. Jde o dobře distribuovaný zdroj, který navíc není svázán s žádným médiem – proud fotonů na Zemi dopadá přímo ze svého zdroje. Využití slunečního světla nevede k produkci zplodin.

Jak vidno, budoucnost je jednoznačně ve sluneční energii, resp. v jejím přímém využití. Ostatní typy elektráren budou vždy jen doplňkovými zdroji. Potíž solárních článků je bohužel zatím v tom, že elektřina jimi vyrobená je tisíckrát dražší než získaná konvenčními metodami a množství energie potřebné k výrobě článku se za celou jeho životnost nevrátí (nemluvě o surovinách, spotřebovaných a uvolněných během produkce). Mělo by však být jen otázkou času, kdy budou k dispozici technologie levnější a účinnější než ty dosavadní. Základní dva směry výzkumu jsou:

  • Přímá výroba elektrické energie ze světla, ať už jde o systémy anorganické (typicky polovodiče nebo sofistikované nanostruktury) či organické (princip umělé fotosyntézy). Výhodou tohoto systému je jejich uzavřenost, tj. že nevyžadují žádný přísun materiálu.
  • Přeměna světelné energie na chemickou, např. rozklad vody na vodík a kyslík nebo produkce kapalných paliv z jednodušších, běžně dostupných a obnovitelných látek. Výhodou této metody je, že zároveň řeší i problém skladování energie, neboť nevyrábí přímo elektřinu, ale energii ukládá do chemické vazby.

Osobně jsem přesvědčen, že se prosadí oba základní typy a budou existovat souběžně, každý tam, kde bude jeho využití výhodnější. Základní otázka pro hledače energetických alternativ má však každopádně jedinou rozumnou odpověď – Slunce. A jednou možná také jadernou fúzi, pokud se nám ji podaří někdy ochočit. To platí bez ohledu na to, co se nám snaží vsugerovat zelená lobby, které masivní dotování větrníků, vodních turbín a pěstování řepky připadá jako ta správná cesta z energetické krize.

Indecisive chemistry

The following text is the press release article I wrote few years ago upon request of Media Relations of University of California, Irvine, shortly after I started working for them. Finally, it hadn’t been used because the article was based on my scientific results from Fritz-Haber Institute of Max Planck Society, then published in the Science magazine (Science 304 (2004), pages 1639-1644) under the title Fluctuations and Bistabilities on Catalyst Nanoparticles.

Since the press release was written with quite a general public in mind I tried to provide enough simple background so that most people could understand at least the main idea of our science findings.

Fluctuations and Bistabilities on Catalyst Nanoparticles

Nanočástice Pd na tenké vrstvě Al2O3 (STM obrázek).

Although the most of people even do not realize it catalysts play an irreplaceable role in our lives. Catalysis is not an industry by itself but rather a key technology used by many industries. General importance of catalysis is, e.g. for petroleum working industry, automotive industry, biochemistry, pharmaceutic industry, fuel cells development etc. The number of catalytic materials applied in industry is very large and catalysts come in many different forms, e.g. powders, spheres, tablets, wires, and other solid forms as well as a coating. Among the most commonly used are heterogeneous catalysts in the form of inert porous solids or powders covered by highly dispersed chemically active metal (typically precious metals like platinum, palladium, and rhodium).

What exactly is catalysis about? Catalysis is a phenomenon by which a relatively small amount of a substance, called a catalyst, accelerates a chemical reaction without itself being consumed by the reactions they aid. Moreover, catalysts not only enhance the rates of reaction (=effectiveness), but they also direct reactants to specific products (=selectivity).

Catalysis generally means the reduction of the activation energy required for a reaction. Realizing this fact the importance of the catalysis appears to be obvious: The less energy required means that a reaction can take place at lower temperatures and pressures which results in savings in terms of energy, raw materials and plant and process costs as well as in higher yields through active control of the reactions. Moreover, the presence of a catalyst can make possible a reaction that would not run otherwise. That is why the catalysis is extremely attractive not only from economic but also from environmental considerations.

AFM obrázek litograficky připravených nanočástic Pt na SiO2.

The pure metals are usually not capable of catalyzing the reaction with the desired selectivity and effectiveness. Therefore a certain „fine-tuning“ has to be done, where the active metal has to be adapted to the specific application. In this report we focus to so-called heterogeneous catalysis where the catalyst has a different phase (typically solid) than the reactants (usually gas or liquid). The well-known example of heterogeneous catalyst is the automotive exhaust converter where porous oxide structure is covered by finely dispersed particles of platinum or rhodium or their combination.

One of the most fascinating aspects of heterogeneous catalysis is that it is largely an empirical science. The application of catalysis has been a necessity for the chemical industry for at least 150 years, while the experimental techniques for investigation of catalysis at the atomic level did not become routine until less than 25 years ago. Large amounts of empiric knowledge exist that awaits systematic investigation. A huge barrier in better understanding comes from the vast complexity of real catalysts which is not directly accessible by existing experimental techniques at microscopic level. Thus the catalytic phenomena are usually studied on the model systems with strongly reduced complexity but still highly relevant to the realistic structures.

In our case, the model catalyst consisting of small metal islands deposited on the surface of a perfectly flat aluminum and silicon oxide has been used. We compared different samples with average lateral size of metal particles varying between the few to several hundreds of atomic diameters (2 to 500 nanometers).

The investigation of the mechanisms of the catalysis is highly motivated by the desire to make development of the novel catalysts and optimization of the existing ones more rational and efficient. Appreciable progress has been done in last two decades and there were theories and models developed in order to explain and predict the elementary processes during catalyzed reaction. However, there are several phenomena remaining which cannot be explained by the present theories.

One of the much discussed „mysteries“ in heterogeneous catalysis are so-called size effects, i.e. the role of the size of the active metal particles. Size effects are a common phenomenon and are typically taken advantage of in catalyst optimization. Just by changing the size of the metal particles their chemical properties may vary in very broad range despite the elemental composition of the catalyst is unaffected. It is because each particle is the ensemble of atoms which are interacting between each other. The physical and chemical behavior of a single atom is different from behavior of the cluster of many atoms especially because of the mutual bonds they form to their neighbors. The less atoms are in a single cluster the more similar to a single atom they behave and vice versa. By changing the number of atoms in a metal particle catalytic properties can be „tuned“.

Unfortunately, the exact origin of size effects remains highly ambiguous in most cases. In our paper we are revealing a part of the „mystery“ around heterogeneous catalysis which arises as a consequence of the limited dimension of the active particle. We focused on a general but widely ignored „nanoscale“ effect, which is the influence of fluctuations of molecules present in a chemical reaction on the surface of the catalyst. During the reaction all molecules (both reactants and products) sitting on the active surface of the catalyst (so called adsorbed molecules) continually change their actual positions due to the thermal vibrations generally present in any matter, in other words they fluctuate their local density. This movement is responsible for rapid rearrangement of the adsorbed molecules and their random motion across the surface (so called surface diffusion) which can be addressed to a kind of microscopic „communication“ between different areas of the catalyst.

Although this movement is extremely fast it occurs on a very small scale in the order of size of an atom. Thus, if the metal particle is sufficiently big there may coexist different spots on it which do not „communicate“ to each other efficiently because the molecule originally located on one side of the particle is consumed by the reaction before it reaches the other side. It means that, in general, we can have different physical conditions on the same single particle (e.g. different absolute density of the adsorbed molecules, different abundance of reactants and products, etc.). Accordingly on the particular catalyst one can observe reaction running in more different regimes in the same time. This effect is called multistability (or bistability in the case of coexistence of just two reaction regimes).

Besides the particle size its microscopic structure plays an important role. It is obvious that movement of the molecule on the surface is different depending if the surface is perfectly flat or it consists of many defects like steps, edges, bumps etc. Usually the smaller is the particle the higher density of such defects and other irregularities is observed.

According to what has been said about the relation between the magnitude of surface fluctuations and the occurrence of multistability on the catalyst it implicates that when the intensity of fluctuations is increased to a certain level the multistability will vanish because of increased intensity of „molecular communication“. It means that just by changing the size of the active metal particles we can obtain a catalyst that exhibits different behavior towards the particular chemical reaction. This is a fact commonly accepted, however, in former experimental studies performed by other research groups the possible role of the surface fluctuations has not been considered. Taking fluctuations into account can help us explain some of the discrepancies and „mysterious phenomena“, which people involved in catalytical chemistry have been experiencing every day.

The results we reported should likely hold not only for the specific case we studied, but also for other reactions exhibiting similar kinetic multistabilities. Besides that, our findings are consistent with previous theoretical predictions which have never been confirmed experimentally before, though. Regarding the crucial importance of the rational approach in modern catalysis mentioned above the implications of our findings for the industry and the environment are quite obvious.