Ile Kosztuje - Nanometr? - Alternatywny Widok

Spisu treści:

Ile Kosztuje - Nanometr? - Alternatywny Widok
Ile Kosztuje - Nanometr? - Alternatywny Widok
Anonim

Stepan Lisovsky, doktorant MIPT, pracownik Zakładu Nanometrologii i Nanomateriałów, opowiada o podstawowych zasadach nanometrologii i funkcjach różnych mikroskopów oraz wyjaśnia, dlaczego wielkość cząstek zależy od sposobu jej pomiaru.

Myślenie referencyjne

Na początek - o prostej metrologii. Jako dyscyplina mogła powstać w starożytności, wtedy wielu spierało się o tę miarę - od Pitagorasa do Arystotelesa - ale nie powstała. Metrologii nie udało się włączyć do naukowego obrazu ówczesnego świata z powodu tego samego Arystotelesa. Na wiele następnych stuleci stawiał pierwszeństwo jakościowemu opisowi zjawisk nad ilościowym. Wszystko zmieniło się dopiero w czasach Newtona. Znaczenie zjawisk „według Arystotelesa” przestało zadowalać naukowców, a akcent przesunął się - z semantycznej części opisu na syntaktyczną. Mówiąc najprościej, postanowiono przyjrzeć się mierze i stopniowi interakcji między rzeczami, a nie próbować zrozumieć ich istoty. I okazało się dużo bardziej owocne. Potem nadeszła najlepsza godzina metrologii.

Najważniejszym zadaniem metrologii jest zapewnienie jednorodności pomiarów. Głównym celem jest oddzielenie wyniku pomiaru od wszystkich szczegółów: czasu, miejsca pomiaru, od tego, kto mierzy i jak decyduje się to zrobić dzisiaj. W rezultacie powinno pozostać tylko to, co zawsze i wszędzie, niezależnie od wszystkiego, będzie należeć do rzeczy - jego obiektywna miara, która należy do niego na mocy wspólnej dla wszystkich rzeczywistości. Jak dostać się do rzeczy? Poprzez jego interakcję z urządzeniem pomiarowym. W tym celu musi istnieć ujednolicona metoda pomiaru, a także norma, taka sama dla wszystkich.

Więc nauczyliśmy się mierzyć - wszystko, co pozostaje, to dla wszystkich innych ludzi na świecie, aby mierzyć w ten sam sposób, co my. Wymaga to, aby wszyscy stosowali tę samą metodę i te same standardy. Ludzie szybko zdali sobie sprawę z praktycznych korzyści płynących z wprowadzenia jednego systemu środków i zgodzili się rozpocząć negocjacje. Pojawił się metryczny system miar, który stopniowo rozprzestrzenił się na prawie cały świat. Nawiasem mówiąc, w Rosji zasługa wprowadzenia wsparcia metrologicznego należy do Dmitrija Mendelejewa.

Image
Image

Wynik pomiaru, oprócz rzeczywistej wartości wielkości, jest również podejściem wyrażonym w jednostkach miary. Tak więc zmierzony metr nigdy nie stanie się niutonem, a om nigdy nie stanie się teslą. Oznacza to, że różne wielkości oznaczają inny charakter pomiaru, ale oczywiście nie zawsze tak jest. Metr drutu okazuje się miernikiem zarówno pod względem właściwości przestrzennych, jak i przewodnictwa, a także masy znajdującej się w nim substancji. Jedna wielkość jest zaangażowana w różne zjawiska, co znacznie ułatwia pracę metrologowi. Nawet energia i masa okazały się w pewnym stopniu równoważne, dlatego masę cząstek supermasywnych mierzy się w kategoriach energii potrzebnej do ich wytworzenia.

Film promocyjny:

Oprócz wartości wielkości i jednostki jej miary istnieje kilka ważniejszych czynników, które musisz wiedzieć o każdym pomiarze. Wszystkie z nich zawarte są w określonej technice pomiarowej dobranej do konkretnego przypadku. Jest w niej ustalone wszystko: standardowe próbki i klasa dokładności instrumentów, a nawet kwalifikacje badaczy. Wiedząc, jak to wszystko zapewnić, w oparciu o metodologię możemy przeprowadzić prawidłowe pomiary. Ostatecznie zastosowanie tej techniki daje nam gwarantowane wymiary błędu pomiaru, a cały wynik pomiaru sprowadza się do dwóch liczb: wartości i jej błędu, z którymi zwykle pracują naukowcy.

Zmierz niewidzialne

Nanometrologia działa na prawie tych samych prawach. Ale jest kilka niuansów, których nie można zignorować. Aby je zrozumieć, musisz zrozumieć procesy zachodzące w nanoświecie i zrozumieć, jaka jest ich cecha. Innymi słowy, co jest takiego specjalnego w nanotechnologii.

Musimy oczywiście zacząć od wymiarów: jeden nanometr na metr to mniej więcej tyle samo, co jeden Chińczyk w populacji Chin. Ta skala (poniżej 100 nm) pozwala na całą serię nowych efektów. Tutaj efekty fizyki kwantowej, w tym tunelowanie i interakcja z układami molekularnymi, aktywność biologiczna i kompatybilność oraz nadmiernie rozwinięta powierzchnia, której objętość (a dokładniej warstwa przypowierzchniowa) jest porównywalna z całkowitą objętością samego nanoobiektu. Właściwości te są skarbnicą możliwości dla nanotechnologa i jednocześnie przekleństwem nanometrologa. Czemu?

Chodzi o to, że ze względu na obecność efektów specjalnych, nanoobiekty wymagają zupełnie nowego podejścia. Nie można ich postrzegać optycznie w klasycznym sensie ze względu na fundamentalne ograniczenie rozdzielczości, jaką można osiągnąć. Ponieważ jest ściśle powiązany z długością fali promieniowania widzialnego (można użyć interferencji i tak dalej, ale to wszystko jest już egzotyczne). Istnieje kilka podstawowych rozwiązań tego problemu.

Wszystko zaczęło się od projektora autoelektronicznego (1936), który później został zmodyfikowany do autojonowego (1951). Zasada jego działania opiera się na prostoliniowym ruchu elektronów i jonów pod działaniem siły elektrostatycznej skierowanej z nanoskalowej katody do ekranu anodowego o makroskopowych wymiarach, których już potrzebujemy. Obraz, który obserwujemy na ekranie, powstaje na lub w pobliżu katody w wyniku pewnych procesów fizycznych i chemicznych. Przede wszystkim jest to ekstrakcja elektronów polowych ze struktury atomowej katody i polaryzacja atomów gazu „obrazującego” w pobliżu wierzchołka katody. Uformowany obraz w postaci pewnego rozkładu jonów lub elektronów jest rzutowany na ekran, gdzie objawia się siłami fluorescencji. W ten elegancki sposób można spojrzeć na nanostrukturę końcówek wykonanych z niektórych metali i półprzewodników,ale elegancja tego rozwiązania jest związana ze zbyt restrykcyjnymi ograniczeniami tego, co widzimy, więc te projektory nie stały się zbyt popularne.

Innym rozwiązaniem było dosłowne wyczucie powierzchni, zrealizowane po raz pierwszy w 1981 roku jako mikroskop z sondą skanującą, który w 1986 roku otrzymał Nagrodę Nobla. Jak można się domyślić z nazwy, badana powierzchnia jest skanowana sondą, którą jest ostra igła.

Mikroskop z sondą skanującą

Image
Image

© Max Planck Institute for Solid State Research

Występuje interakcja między końcówką a strukturą powierzchni, którą można z dużą dokładnością określić nawet siłą działającą na sondę, nawet poprzez powstające ugięcie sondy, nawet przez zmianę częstotliwości (fazy, amplitudy) oscylacji sondy. Początkowa interakcja, która determinuje możliwość zbadania niemal każdego obiektu, czyli uniwersalność metody, opiera się na sile odpychania powstającej w kontakcie oraz na działaniach van der Waalsa o dużym zasięgu. Można wykorzystać inne siły, a nawet powstający prąd tunelowy, odwzorowując powierzchnię nie tylko pod względem położenia przestrzennego na powierzchni nanoobiektów, ale także innych ich właściwości. Ważne jest, aby sama sonda była nanoskala, w przeciwnym razie sonda nie będzie skanować powierzchni,a powierzchnia jest sondą (na mocy trzeciego prawa Newtona o oddziaływaniu decydują oba obiekty i, w pewnym sensie, symetrycznie). Ale ogólnie rzecz biorąc, metoda ta okazała się zarówno uniwersalna, jak i posiadająca najszerszy zakres możliwości, dlatego stała się jedną z głównych w badaniach nanostruktur. Jego główną wadą jest to, że jest niezwykle czasochłonny, zwłaszcza w porównaniu z mikroskopami elektronowymi.

Nawiasem mówiąc, mikroskopy elektronowe są również mikroskopami sondującymi, tylko zogniskowana wiązka elektronów działa w nich jako sonda. Zastosowanie systemu soczewek sprawia, że jest on koncepcyjnie podobny do optycznego, choć nie bez większych różnic. Przede wszystkim: elektron ma krótszą długość fali niż foton ze względu na swoją masywność. Oczywiście długości fal nie należą tutaj do właściwych cząstek, elektronu i fotonu, ale charakteryzują zachowanie odpowiednich fal. Kolejna ważna różnica: interakcja ciał z fotonami i elektronami jest zupełnie inna, choć nie pozbawiona wspólnych cech. W niektórych przypadkach informacja uzyskana z interakcji z elektronami jest nawet bardziej znacząca niż z interakcji ze światłem - jednak sytuacja odwrotna nie jest rzadkością.

Image
Image

I ostatnią rzeczą, na którą należy zwrócić uwagę, jest różnica między układami optycznymi: jeśli ciała materialne są tradycyjnie soczewkami dla światła, to dla wiązek elektronów są to pola elektromagnetyczne, które dają większą swobodę manipulowania elektronami. Na tym polega „sekret” skaningowych mikroskopów elektronowych, na którym obraz, choć wygląda tak, jakby został uzyskany w konwencjonalnym mikroskopie świetlnym, wykonany jest tylko dla wygody operatora, ale jest uzyskiwany z komputerowej analizy charakterystyk oddziaływania wiązki elektronów z oddzielnym rastrem (pikselem) na próbki, które są następnie skanowane. Interakcja elektronów z ciałem umożliwia odwzorowanie powierzchni pod względem reliefu, składu chemicznego, a nawet właściwości luminescencyjnych. Wiązki elektronów mogą przechodzić przez cienkie próbki,co pozwala zobaczyć wewnętrzną strukturę takich obiektów - aż po warstwy atomowe.

Są to główne metody rozróżniania i badania geometrii obiektów na poziomie nanoskali. Są inne, ale współpracują z całymi systemami nanoobiektów, obliczając statystycznie ich parametry. Oto dyfraktometria rentgenowska proszków, która pozwala dowiedzieć się nie tylko o składzie fazowym proszku, ale także o rozkładzie wielkości kryształów; i elipsometria, która charakteryzuje grubość cienkich warstw (rzecz niezastąpiona przy tworzeniu elektroniki, w której architektura układów tworzona jest głównie warstwowo); oraz metody sorpcji gazów do analizy powierzchni właściwej. Język można przełamać nazwami niektórych metod: dynamicznego rozpraszania światła, spektroskopii elektroakustycznej, relaksometrii magnetycznego rezonansu jądrowego (nazywa się to jednak po prostu relaksometrią NMR).

Ale to nie wszystko. Na przykład ładunek może zostać przeniesiony na nanocząstkę poruszającą się w powietrzu, po czym można włączyć pole elektrostatyczne i, w zależności od tego, jak ugina się cząstka, obliczyć jej rozmiar aerodynamiczny (siła tarcia w powietrzu zależy od wielkości cząstek). Nawiasem mówiąc, w podobny sposób wielkość nanocząstek określa się we wspomnianej już metodzie dynamicznego rozpraszania światła, analizowana jest tylko prędkość ruchu Browna, a ponadto pośrednio z fluktuacji rozpraszania światła. Uzyskuje się hydrodynamiczną średnicę cząstek. A takich „sprytnych” metod jest więcej.

Taka mnogość metod, które wydają się mierzyć to samo - rozmiar, ma jeden interesujący szczegół. Wartość rozmiaru jednego i tego samego nanoobiektu często się różni, czasem nawet czasami.

Jaki rozmiar jest prawidłowy?

Czas przypomnieć sobie zwykłą metrologię: wyniki pomiarów, oprócz rzeczywistej mierzonej wartości, są również określone dokładnością pomiaru i metodą, według której przeprowadzono pomiar. Odpowiednio, różnicę w wynikach można wyjaśnić zarówno różną dokładnością, jak i różnym charakterem mierzonych wartości. Teza o różnym charakterze różnych rozmiarów tej samej nanocząstki może wydawać się szalona, ale tak jest. Rozmiar nanocząstki pod względem zachowania się w dyspersji wodnej nie jest taki sam jak rozmiar pod względem adsorpcji gazów na jej powierzchni i nie jest taki sam, jak rozmiar pod względem interakcji z wiązką elektronów w mikroskopie. Nie wspominając już o tym, że w przypadku metod statystycznych nie można też mówić o pewnym rozmiarze, a jedynie o wartości charakteryzującej wielkość. Ale pomimo tych różnic (a nawet dzięki nim) wszystkie te wyniki można uznać za równie prawdziwe, mówiąc tylko trochę o różnych rzeczach, patrząc z różnych perspektyw. Ale wyniki te można porównać tylko z punktu widzenia adekwatności polegania na nich w określonych sytuacjach: aby przewidzieć zachowanie nanocząstki w cieczy, bardziej odpowiednie jest użycie wartości średnicy hydrodynamicznej i tak dalej.

Wszystko to odnosi się do konwencjonalnej metrologii, a nawet do każdego zapisu faktów, ale często jest to pomijane. Można powiedzieć, że nie ma faktów bardziej i mniej prawdziwych, bardziej zgodnych z rzeczywistością i mniejszych (z wyjątkiem być może fałszerstwa), ale są tylko fakty, które są bardziej i mniej adekwatne do użycia w konkretnej sytuacji, a także oparte na mniej lub więcej poprawna interpretacja tego. Filozofowie nauczyli się tego dobrze od czasów pozytywizmu: każdy fakt jest teoretycznie obciążony.