Elektrostatyka

Zjawiskami związanymi z elektrycznością interesowały się wielkie starożytne cywilizacje nad Morzem Śródziemnym. Według legend, ok. 900 roku p.n.e. Magnus, grecki pasterz, szedł polem pokrytym czarnymi kamieniami, które w „magiczny” sposób wyciągnęły żelazne gwoździe z jego sandałów. Działo się to w regionie nazywanym dziś Magnezją – choć według innych wątków mitologii, nazwa tej krainy pochodzi od imienia syna Zeusa i Thyi – Magnesa, jej pierwszego króla.

 

Odnosząc się do mitologii greckiej, nie sposób pominąć Prometeusza, który najpierw stworzył samego człowieka z gliny zmieszanej ze łzami, a następnie wyposażył go w ogień i nauczył wykorzystywać jego energię. Przekazał też całą resztę wiedzy, na której opierał się rozwój cywilizacji – to dzięki niemu ludzie umieli budować schronienia, poznali pismo, technologię obróbki metali oraz sposoby ujarzmiania i wykorzystywania sił przyrody.

 

 

Wreszcie – ok. 600 roku p.n.e. – mamy do czynienia z pierwszymi udokumentowanymi doświadczeniami z zakresu elektrostatyki. Oczywiście chodzi o Talesa z Miletu i jego obserwacje dotyczące bursztynu (gr.elektron – co dało początek powszechnemu dziś pojęciu „elektryczności”), który pocierany, zaczyna przyciągać inne przedmioty. Choć Tales nie był w stanie wyjaśnić tego zjawiska ani też nie było jeszcze szans na wykorzystanie go w praktyce, to zwrócił uwagę współczesnych na nową dziedzinę fenomenów przyrody, którą zaczęto się odtąd bardziej interesować.

 

Jednak przez następne dwadzieścia cztery stulecia wiedza o elektryczności nie posunęła się zbytnio naprzód. Sytuacja zmieniła się dopiero w okresie oświecenia, gdy nauki przyrodnicze uwolnione zostały spod paraliżującego wpływu kościelnych dogmatów, co zaowocowało gwałtownym ich rozwojem. Jeszcze u schyłku renesansu, w roku 1600, angielski fizyk William Gilbert ogłosił swoją rozprawę O Magnesach i ciałach magnetycznych, oraz o wielkim magnesie Ziemi, w której jako pierwszy zastosował termin „elektryczność”. W opisie właściwości magnetycznych i elektrostatycznych różnych ciał zaczął się posługiwać terminami: pole magnetyczne, siły i przyciąganie elektryczne. Wcześniej – w roku 1551 roku Girolamo Cardano – włoski matematyk – zauważył, że właściwości bursztynu oraz magnetytu to jednak dwie różne rzeczy. Zaczęto zwracać uwagę na rozróżnienie pomiędzy magnetyzmem, a elektrycznością, choć związek między nimi wydawał się nadal oczywisty.

 

Postęp nauki w następnych latach wieku XVII i przez całe następne stulecie był zaskakujący. W 1660 roku burmistrz Magdeburga, Otto von Guericke skonstruował pierwszą maszynę elektrostatyczną, która wykonana była z obracającej się, pokrytej siarką, szklanej kuli, a ładowała się poprzez tarcie. Francis Hauksbee w 1705 roku przeprowadził serię eksperymentów, w których szukał przyczyny pojawiania się światła na szklanych rurkach, z których wykonane były barometry Torricelliego. Wpierw łączono to zjawisko z rtęcią wypełniającą przyrząd, lecz wkrótce okazało się, że na powierzchniach szklanych pojawia się światło niezależnie od tego, czy naczynia są puste, czy też mają jakąś zawartość. Hauksbee zauważył, że na szkle pojawiają się iskry również wtedy, gdy wykonane z niego przedmioty znajdą się w pobliżu innych, wcześniej naelektryzowanych. Organizował zapierające dech w piersiach pokazy z wykorzystaniem wielu artefaktów o różnych kształtach, emitujących światło w pełnej gamie barw.

 

W roku 1729 Stephen Gray odkrył, że ładunki elektryczne „przemieszczają się” w niektórych materiałach, podczas gdy w innych – nie. Użyty przez niego mokry sznur pozwolił na przesłanie prądu na odległość 765 metrów, natomiast nić jedwabna nie wykazywała takich właściwości. W końcu – na zakończenie swoich badań przesłał od maszyny elektrostatycznej, do elektroskopu ładunek na odległość 88 metrów poprzez drut żelazny zawieszony na jedwabnych niciach. Tak właśnie dokonało się odkrycie przewodnictwa oraz ustalenie podstawowych zasad konstrukcji (umieszenie przewodnika na izolatorach) wszystkich linii służących do przesyłania prądu, zarówno tych zasilających, jak i telekomunikacyjnych.

 

Pięć lat później wyniki swoich badań ogłosił przed Francuską Akademią Nauk emerytowany oficer, Charles-Francois de Cisternay du Fay. Po pierwsze obalił on wcześniejszą klasyfikację ciał na „elektryczne” i „nieelektryczne”, zaproponowaną przez Jeana Desaguliersa. Du Fay dowiódł, że wszystkie ciała poddające się elektryczności, mogą zostać naelektryzowane! Pozostałe jego odkrycia dotyczyły przewodnictwa, cech elektrycznych ludzkiego ciała odizolowanego od ziemi, choć najważniejszym dokonaniem było wprowadzenie podziału na dwa rodzaje energii elektrycznej: ciała szklistego (wytwarzanej na szkle, kamieniach, metalach szlachetnych, sierści zwierząt) oraz ciała żywicznego (powstającej na bursztynie, żywicy, laku, papierze). Zaobserwował również, że ładunki tego samego rodzaju odpychają się, a odmienne – przyciągają. Obecnie nadal posługujemy się tym rozróżnieniem, choć stosujemy dla niego terminologię wprowadzoną w 1752 roku przez Benjamina Franklina, który określił ładunki jako „dodatnie” i „ujemne”.

 

 

Przełomowym wynalazkiem stała się butelka lejdejska – pierwszy kondensator – skonstruowana w 1745 roku, niezależnie przez dwóch ludzi: Pietera van Musschenbroeka na Uniwersytecie w Lejdzie oraz Ewalda Jürgena Georga von Kleista w Kamieniu Pomorskim. Szkło butelki pełniło rolę izolatora pomiędzy dwiema warstwami metalowej folii, pokrywającymi jej ścianki od wewnątrz i na zewnątrz. Butelka wypełniona była wodą i zatkana korkiem, przez który przechodził na zewnątrz miedziany drut. Najważniejszy eksperyment z wykorzystaniem tego wynalazku był jednak dziełem Benjamina Franklina, który w czerwcu 1752 roku używając latawca, naładował butelkę lejdejską prądem z błyskawicy. Amerykański uczony udowodnił, iż pioruny są właśnie wyładowaniami elektrycznymi, co miało ogromne znaczenie praktyczne, bowiem pozwalało na znalezienie naukowych sposobów na ochronę przed ich uderzeniami. Inne badania i odkrycia Franklina, choć może mniej spektakularne, miały równie ważne znaczenie dla postępu w dziedzinie wykorzystania elektryczności. Zaobserwował, iż szkło potarte tkaniną elektryzuje się ładunkiem o takiej samej sile, jak tkanina, lecz o przeciwnym potencjale. Z tego faktu wywnioskował dalej, iż istnieje raczej jeden rodzaj elektryczności, a nie dwa (jak wcześniej twierdził du Fay, Watson i inni), a podczas tarcia przedmiotów jeden z nich otrzymuje jakby jej nadmiar, a drugi ma jej deficyt, przez co później występuje dążenie do zbilansowania tej różnicy. Do demonstracji swoich konkluzji Franklin wykorzystał dwóch ludzi stojących na odizolowanych platformach, pocierali oni szkło tkaniną, a następnie jeden zebrał na siebie ładunek ze szkła, a drugi z materiału. Następnie zbliżyli do siebie dłonie i pomiędzy ich palcami przeskoczyła silna iskra. Ładunki, którymi wcześniej naładowali swe ciała, całkowicie się zneutralizowały.

 

Jeszcze w roku 1748 Benjamin Franklin zademonstrował praprototyp silnika elektrycznego – do wykonanej z izolatora okrągłej tarczy przymocował po przekątnej dwie metalowe gałki. Następnie umieścił ją pomiędzy ustawionymi naprzeciw siebie podobnymi kulami tak, by mogła się obracać, a odległość pomiędzy gałkami w ich największym zbliżeniu była bardzo mała. Gdy kule na stojaku zostały naładowane elektrycznie, jedna dodatnio, a druga ujemnie, koło zostało wprawione w ruch. Kule na tarczy były przyciągane przez te umieszczone na stojaku, a gdy odległość była minimalna, przeskoczyła pomiędzy nimi iskra, powodując ich naładowanie takim samym ładunkiem. W tym momencie kule zaczęły się odpychać i wprawiły tarczę w dalszy ruch. Za swoją pracę naukową i osiągnięcia Benjamin Franklin został w 1753 roku odznaczony przez Royal Society Medalem Copleya – ówcześnie najwyższą naukową nagrodą w Anglii.

 

Zdecydowanie najważniejszym wydarzeniem tego okresu było jednak ogłoszenie przez Charlesa Augustina de Coulomba w 1784 roku podstawowego prawa elektrostatyki. Wcześniej do podobnych wniosków dochodzili inni naukowcy (John Michell, Johann Tobias Mayer, Henry Cavendish), jednak nie przeprowadzili pełnego dowodu swoich twierdzeń. Coulomb wykorzystał skonstruowaną przez siebie wagę skręceń i stwierdził, że siła oddziaływania wzajemnego pomiędzy dwoma ładunkami elektrycznymi jest wprost proporcjonalna do ich iloczynu oraz odwrotnie proporcjonalna do kwadratu odległości między nimi. Prawo Coulomba pozwalało odtąd na wyznaczanie sił oddziaływania dowolnego rozkładu ładunków elektrycznych, co umożliwiło prowadzenie dalszych badań i rozwoju nauk o elektryczności.

 

Schyłek  XVIII wieku to okres doświadczeń włoskiego anatoma Luigi Galvaniego, który podczas badań żab zwrócił uwagę na drgania mięśni martwego zwierzęcia wywołane dotknięciem metalu. „Elektryczność zwierzęca” była już wcześniej przedmiotem doświadczeń – w XVII wieku opisał podobne reakcje nerwów i mięśni Holender, Jan Swammerdam, a w 1700 roku obserwował je we Włoszech Leopold Caldani. Johann Georg Sulzer w 1762 roku opublikował w Berlinie swoje odkrycie, iż umieszczone na języku dwa kawałki różnych metali – użył do tego srebra i ołowiu – dawały w efekcie posmak podobny do siarczanu żelaza. Dodatkowo, efekt ten nie był wyczuwalny, gdy jeden z nich znajdował się na języku, a drugi pod nim, a dopiero w momencie, kiedy ich zewnętrzne krawędzie się stykały. Wszystko to jednak były rewelacje od siebie niezależne, nie udało się jeszcze nikomu sformułować zadowalających wyjaśnień tych zjawisk, które łączyłyby je w miarę spójny system wiedzy. Dopiero eksperymenty Galvaniego skupiające się na ich elektrycznych cechach pozwoliły na udowodnienie, iż „siłą” powodującą skurcze martwych mięśni zwierząt był właśnie prąd elektryczny. Wyniki swoich badań Galvani opublikował po jedenastu latach doświadczeń w roku 1791 w dziele De viribus electricitatis in motu musculari commentarius” – „Komentarz o efektach elektrycznych ruchu mięśni.

 

 

Badania Galvaniego zainteresowały między innymi Alessandro Voltę – profesora historii naturalnej na Uniwersytecie w Pawii, który był przekonany, że źródłem elektryczności były zastosowane w doświadczeniach metale. Pomiędzy naukowcami rozpoczął się intensywny spór, przerwany dopiero przez śmierć Galvaniego w 1798 roku. Dwa lata później Volta wystosował do Royal Society w Londynie pismo, w którym donosił o skonstruowaniu „stosu”, który zachowuje się podobnie do butelki lejdejskiej, bowiem pozwala magazynować energię.

 

Jednak zasadnicza różnica tkwiła w tym, że butelka lejdejska po rozładowaniu nie posiadała już ładunku elektrycznego, natomiast „stos” Volty ciągle ten ładunek odnawiał. Urządzenie Volty składało się z 80 dysków z cynku i miedzi ułożonych naprzemiennie i oddzielonych od siebie przekładkami z papieru, filcu lub skóry nasączonymi roztworem soli albo kwasu. Całość umieszczona była w pionowym stojaku, z którego podstawy i szczytu wychodziły przewody. Volta uznał swój wynalazek za doświadczalny dowód na to, że elektryczność powstaje w wyniku kontaktu pomiędzy dwoma różnymi metalami – miało to być jego ostatecznym zwycięstwem w sporze z Galvanim.

 

Eksperymenty innych naukowców opierające się na opisie Volty dowiodły, że źródłem prądu elektrycznego są reakcje chemiczne, a teoria kontaktu metali jest błędna. Zgłębiając badania Volty, Johann Ritter zaproponował w 1801 roku, koncepcję uporządkowania metali pod względem siły prądu, który – zanurzone w roztworach soli lub kwasów – produkują. Na ten sam pomysł nieco później wpadł również Volta i zestawienie, w którym każdy z metali ma potencjał dodatni w porównaniu ze znajdującym się na pozycji poniżej, nosi nazwę „szeregu elektrochemicznego Volty”. Idea siły elektromotorycznej została już sformułowana, choć musiało minąć całe ćwierćwiecze, zanim  Georg Simon Ohm opublikował swoje prawo.

 

Nowe ogniwa i ich zespoły powstawały teraz coraz szybciej i zaczęto nazywać je bateriami. Nie znając jeszcze w pełni natury elektryczności, badacze w sposób oczywisty koncentrowali się na ubocznych, lecz bardziej spektakularnych efektach jej działania, jakimi były: huk i iskry wyładowań. W sposób niemal naturalny szukano analogii w terminologii militarnej i stąd do dziś pozostał nam „ładunek” elektryczny czy zapożyczona od artylerzystów „bateria”.

 

Na początku XVIII wieku elektryczność znana była tylko na salonach i w kręgach naukowych. Zastosowanie nowych wynalazków było bardzo ograniczone – po pierwsze baterie dostarczały niewielkich ilości energii, a i żywotność ich była krótka; po drugie zaś, oprócz oczywistych i odczuwalnych efektów działania prądu, jak choćby rozgrzewanie przewodników, czy wręcz ich spalanie, nie istniały jego żadne praktyczne zastosowania.

 

Na swoją kolej czekały prądnice, ale do ich wynalezienia potrzeba było jeszcze kilku pośrednich kroków. Jednym z nich były prace Hansa Christiana Ørsteda, który podczas wykładu prezentującego cieplne efekty przepływu prądu przez przewodnik zauważył, że igła stojącego niedaleko przewodnika kompasu odchyla się w jego kierunku, gdy płynie przezeń prąd. Przez następne miesiące badał to zjawisko i odkrył, że nie tylko prąd elektryczny oddziałuje na namagnesowaną igłę, ale też magnes może wpływać na drut, przez który płynie prąd, gdy tylko ma on możliwość ruchu. Ørsted opublikował wyniki swoich badań 21 czerwca 1820 roku na łamach włoskich gazet, dzięki czemu stały się szeroko znane i popularne. Elektromagnetyzm opisany przez Duńczyka stał się kluczem do kolejnych odkryć i wynalazków.

 

 

W tym samym roku w Akademii Francuskiej serię wykładów prezentujących nowe odkrycia z dziedziny elektromagnetyzmu miał André Marie Ampère'a. Zauważył, że siły elektromagnetyczne działają nie tylko pomiędzy przewodnikiem a magnesem, ale również między dwoma przewodnikami, przez które przepływa prąd. Następnie zdefiniował związek pomiędzy kierunkiem przepływu prądu a odchyleniem igły magnesu, a także wykazał, iż równoległe przewody przewodzące prąd w tym samym kierunku przyciągają się, a w kierunkach przeciwnych – odpychają. Na podstawie tych koncepcji doszedł do wniosku, iż możliwe jest skonstruowanie „elektrycznego magnesu”, a następnie wykonał jego prototyp: cewkę nawiniętą z drutu miedzianego, która podłączona do prądu wykazywała właściwości identyczne z cechami stałego magnesu. Ampère zasugerował również użycie takich przyrządów do przesyłania informacji na odległość – pojawiła się koncepcja telegrafu. Zawdzięczamy mu obowiązujący do dziś podział nauk o elektryczności na elektrostatykę i elektrodynamikę. Poza wagą skręceń Coulomba, ówcześni naukowcy nie dysponowali żadnymi przyrządami służącymi pomiarom elektrycznym poza takimi, które nazwać możemy dziś jedynie wskaźnikami. Po opublikowaniu przez Ampère jego podstawowego twierdzenia, stało się możliwe stosowanie galwanometrów do pomiarów prądu. Ogłoszone w 1822 roku prawo Ampère’a opisywało zależności pomiędzy indukcją magnetyczną wokół przewodnika, a natężeniem prądu przepływającego przez ten przewodnik.

 

Georg Simon Ohm rozpoczął swoje badania nad prądem w przewodnikach w 1825 roku, a w dwa lata później opublikował ich wyniki, w których znalazło się prawo dziś nazywane jego nazwiskiem. Opisuje ono proporcjonalność napięcia do natężenia prądu płynącego w przewodniku o określonym oporze. 3 września 1821 roku Michael Faraday stwierdził, że przewodnik podłączony do prądu obraca się w polu magnetycznym, podobnie jak igła kompasu zmieniała swoje położenie w polu elektrycznym.  Do pierwszych doświadczeń używał metalowego naczynia wypełnionego rtęcią, w którego centrum umieszczona była pionowo laska magnesu, z końcem wystającym ponad powierzchnię metalu. Przewodnik został podwieszony ponad naczyniem, z jednym końcem zanurzonym w rtęci – po włączeniu prądu zaczął on obracać się wokół magnesu. Do drugiego doświadczenia Faraday użył tego samego zestawu z tym, że przewodnik był umieszczony nieruchomo i stykał się z centralnym punktem powierzchni rtęci, a magnes zastąpiła igła magnetyczna, której jeden koniec pokryty był platyną, aby zwiększyć jej ciężar. Igła poruszała się swobodnie w naczyniu, jednym końcem dotykając dna, podczas gdy drugi wystawał ponad powierzchnię. I znów – po podłączeniu przewodu do ogniwa, gdy popłynął prąd – igła zaczęła obracać się wokół przewodnika. Niedługo później Faraday zauważył również, że metalowy dysk umieszczony na osi zamontowanej pomiędzy biegunami magnesu o kształcie podkowy zaczyna obracać się, gdy przez oś przepuszczony zostanie prąd elektryczny. Podobne doświadczenie z sukcesem przeprowadził niewiele wcześniej Peter Barlow i ten prototyp silnika nazwany został „kołem Barlowa”.

 

Jednak to Michael Faraday poświęcił bez reszty swoją uwagę i czas zagadnieniom związanym z elektromagnetyzmem – w 1822 roku zapisał w swoim notesie: zamienić magnetyzm w elektryczność i do osiągnięcia tego celu prowadzić miały następne lata jego pracy. Ostateczny sukces odniósł prawie dziesięć lat później – w 1831 roku, gdy przeprowadził serię eksperymentów z wykorzystaniem cewki, do której końców podłączony był galwanometr. Faraday obserwował wskazania przyrządu podczas zbliżania i oddalania od niego sztabki magnesu – przy jej zbliżaniu i oddalaniu wskazówka miernika wychylała się w przeciwne strony, natomiast wracała w położenie neutralne w momencie, gdy ruch ustawał. Wyniki swoich badań Michael Faraday przekazał Royal Society 24 listopada 1831 roku, a wieści o nowym, sensacyjnym odkryciu spowodowały zrozumiałe poruszenie w całym świecie nauki. Droga do zamiany energii mechanicznej w elektryczną wydawała się stać otworem, choć zanim powstały efektywne urządzenia pozwalające na ich praktyczne zastosowanie, musiało upłynąć jeszcze trochę czasu.

 

Wersja do druku Wersja do druku | Mapa witryny
© Całość praw autorskich: Filip Wiśniewski