Przejdź do treści

Galaktyki karłowate jako narzędzie
do badań ciemnej materii

Jarosław Klimentowski

Historia ciemnej materii

Rys. 1 NGC 346, fragment Małego Obłoku Magellana. Fot. NASA/ESA

Problem ciemnej materii jest chyba jednym z najciekawszych zagadnień współczesnej astronomii. Mimo iż znany jest od 75 lat, to odpowiedź na pytanie, czym jest ciemna materia, nadal spędza sen z powiek astrofizyków. Kiedy w roku 1933 szwajcarski astronom Fritz Zwicky po raz pierwszy zmierzył masę gromady galaktyk w Warkoczu Bereniki, okazało się, że jest ona niewystarczająca, aby utrzymać galaktyki na orbitach. Albo więc korekty wymagała teoria grawitacji, albo w gromadzie było coś jeszcze. Coś niewidocznego, co grawitacyjnie spajało ją w całość. Tak powstała koncepcja ciemnej materii.

Ciekawym zbiegiem okoliczności jest fakt, że zaledwie trzy lata wcześniej niemalże identyczny problem przytrafił się fizykom podczas badań rozpadu ?. W tym czasie wiadomo było, że neutron rozpada się na dwie naładowane cząstki — proton i elektron. Rozpadem rządzą dwa fundamentalne prawa fizyczne: zasada zachowania energii i zasada zachowania pędu. Z pierwszego prawa wiadomo, ile energii kinetycznej otrzymają produkty reakcji, podczas gdy drugie mówi, w jaki sposób ta energia zostanie między nie rozdzielona. Mamy więc dwa niezależne równania. Jeśli produktami rozpadu są także dwie cząstki, to oczywiście nie ma żadnej swobody i możliwy jest tylko jeden konkretny podział energii i pędu. Innymi słowy, mierząc np. energię elektronu powstałego w rozpadzie ?, spodziewamy się konkretnej wartości. To, co obserwowano w rzeczywistości, to było całe spektrum energii.

Możliwe były dwa rozwiązania tego problemu. Albo poprawek wymagają fundamentalne zasady zachowania, albo jest tam coś jeszcze. Coś niewidocznego, co porywało ze sobą nadwyżkę energii. Tak właśnie za sprawą Wolfganga Pauliego powstała koncepcja neutrina — niesamowicie lekkiej, hipotetycznej cząstki, niezwykle trudnej do wykrycia. Fizykom wystarczyło jednak ledwie 26 lat, aby rzeczywiście tę cząstkę odkryć, podczas gdy do ujarzmienia ciemnej materii wydaje się być nadal daleko. Żeby analogia między tymi dwoma przypadkami była pełna warto wspomnieć, że jeszcze całkiem niedawno jako hipotetyczną cząstkę ciemnej materii obstawiano… neutrino!

Dalsze badania

Oczywiście pośrednie obserwacje ciemnej materii nie sprowadzały się tylko do gromad galaktyk. Okazuje się, że aby wyjaśnić dynamikę samych galaktyk, potrzeba dodatkowej, niewidocznej masy. Rekordzistkami pod tym względem są galaktyki karłowate, u których stosunek masy do światła jest największy. Jednak ciemna materia nie przejawia się tylko w dynamice galaktyk czy ich gromad. Jest ona absolutnie niezbędna, aby wyjaśnić ewolucję Wszechświata jako całości na bazie teorii Wielkiego Wybuchu. Bez ciemnej materii ewolucja Wszechświata nie tylko globalnie przebiegałaby zupełnie inaczej niż wynika z szeregu różnych obserwacji, ale w ogóle niemożliwe byłoby w tak krótkim czasie utworzenie jakichkolwiek wielkoskalowych struktur, takich jak gromady galaktyk. To ciemna materia pisze scenariusz, według którego formuje się Wszechświat, a materia widzialna jest jedynie aktorem na tej scenie.

Czy to możliwe, że słuszna jest koncepcja alternatywna, tj. modyfikacji wymaga sama teoria grawitacyjnego oddziaływania? Obecnie wydaje się, że nie. Podjęto szereg prób znalezienia alternatywnej teorii oddziaływania (najpopularniejszy jest MOND, gdzie co prawda nie modyfikuje się grawitacji, lecz prawo dynamiki na dużych skalach) i oczywiście można je dopasować do niektórych danych obserwacyjnych, lecz brakuje im ogólności. Takie modyfikacje mają zastosowanie w konkretnych przypadkach, lecz nie potrafią opisać ich wszystkich, począwszy od najmniejszych galaktyk, na wielkoskalowej strukturze skończywszy. Dlatego też teraz zdecydowana większość astronomów skłania się ku koncepcji ciemnej materii.

Czym jest ciemna materia?

Wraz z rozwojem technik obserwacyjnych powstały możliwości badania niewidocznych wcześniej form materii. Satelitarne obserwacje rentgenowskie ujawniły duże ilości gorącego gazu w gromadach galaktyk. Obserwacje w podczerwieni i zakresie radiowym ujawniły także obecność chłodniejszego gazu wewnątrz samych galaktyk. Badania nad ewolucją gwiazd i ich populacjami umożliwiają oszacowanie masy gwiazd niewidocznych z powodu małych jasności absolutnych. Zjawisko mikrosoczewkowania grawitacyjnego umożliwiło ocenę liczby ciemnych zwartych obiektów w Galaktyce, takich jak brązowe karły czy samotne czarne dziury. Wszystko to, czyli w ogólności materia barionowa, stanowi jednak tylko mały ułamek brakującej masy. Stąd wzięła się koncepcja, iż ciemna materia jest materią niebarionową. Dodatkowo ciemnej materii nie obserwuje się w mniejszych skalach niż skala galaktyki. Nasz Układ Słoneczny zachowuje się tak, jakby jej w ogóle nie było, choć z badań dynamiki Drogi Mlecznej wiemy, że tu jest i to w ogromnych ilościach. To nasuwa z kolei wniosek, że powinna to być raczej mikroskopijna cząstka, która w małych skalach ma zupełnie jednorodny rozkład. Wtedy w istocie jej obecność byłaby niezauważalna. W chwili obecnej nie znamy żadnej cząstki elementarnej, która mogłaby wyjaśnić fenomen ciemnej materii, ale istnienie takiej cząstki ma uzasadnienie w teoriach rozwijających model standardowy, takich jak np. teoria superstrun.

Rys. 2 Galaktyka M31 w Andromedzie. Doskonale są widoczne dwie galaktyki karłowate, jej towarzysze. Fot. Robert Gendler

Mimo iż ciemna materia wydaje się być niebarionową cząstką elementarną, to jej właściwości można z powodzeniem badać przy pomocy obiektów tak dużych, jak galaktyki i ich gromady. Bardzo pomocne są w tym symulacje N-ciałowe. Mikrofalowe promieniowanie tła daje nam bardzo precyzyjny obraz, jak wyglądał Wszechświat około 105 lat po Wielkim Wybuchu. Musimy jedynie wykorzystać te warunki początkowe, poczynić założenia na temat charakterystyki materii oraz zdefiniować wszelkie interesujące nas procesy, które mogą zachodzić po drodze. Następnie symulujemy ewolucję Wszechświata aż do chwili obecnej i porównujemy to, co wyszło z symulacji z tym, co widzimy na niebie. Jeśli zgodność jest zadowalająca, to znaczy, że przyjęte przez nas założenia są sensowne. W ten sposób proste badanie rozkładu ciemnej materii w połączeniu z symulacjami N-ciałowymi może być tak samo dobrym narzędziem przy badaniu hipotetycznej cząstki, jak akcelerator.

Gdy stało się jasne, że materii barionowej jest za mało, aby wyjaśnić fenomen ciemnej materii, powstały dwie niezależne koncepcje niebarionowej cząstki. Teorie gorącej oraz zimnej ciemnej materii. Gorąca składałaby się z cząstek szybkich, poruszających się z prędkościami relatywistycznymi, zaś zimna to cząstki powolne, nierelatywistyczne. W obu przypadkach hipotetyczna cząstka powinna być bezzderzeniowa, tj. oddziaływać ze sobą oraz z pozostałą materią tylko grawitacyjnie (ew. zderzenia, o ile by występowały, powinny być bardzo rzadkie). Jest to o tyle oczywiste, że cząstki zderzające się, tak jak gaz, miałyby swoje równanie stanu, które na skutek obecności momentu pędu skłaniałoby do formowania raczej dysku, podczas gdy z badań rozkładu ciemnej materii wynika raczej, że formuje ona sferyczne halo.

Z koncepcją gorącej ciemnej materii wiązano duże nadzieje, gdyż znany był idealny kandydat na jej cząstkę, mianowicie neutrino. Niestety, symulacje N-ciałowe pokazały, że ewolucja Wszechświata na bazie modelu gorącego nie odtwarza poprawnie dzisiejszego stanu, a wkrótce okazało się także, że masa neutrina jest zupełnie niewystarczająca, aby pełnić tę rolę. Obecnie najbardziej faworyzowany jest model Zimnej Ciemnej Materii ze stałą kosmologiczną, który w symulacjach w miarę dobrze odtwarza obserwowany Wszechświat, a hipotetyczną cząstką mógłby być np. WIMP, tj. Słabo Oddziałująca Masywna Cząstka, o masie rzędu kilkudziesięciu mas protonu.

Rola galaktyk karłowatych

Rys. 3 Sferoidalna galaktyka karłowata w Piecu (Fornax). Jest to jedna z najlepiej zbadanych galaktyk tego typu. Typowa galaktyka wygląda jak zagęszczenie gwiazd nałożone na gwiazdy Drogi Mlecznej. (Źródło zdjęcia:
http://www.astrosurf.com/
antilhue/fornax_dwarf.htm
)

Opierając się na symulacjach N-ciałowych na bazie teorii Zimnej Ciemnej Materii stworzono tzw. hierarchiczny model ewolucji Wszechświata. W pierwszej kolejności powstawały małe halo ciemnej materii, które następnie z czasem łączyły się w większe. Oczywiście w stworzone przez nie studnie potencjału wpadał gaz, z którego formowały się gwiazdy. Tak powstają najpierw galaktyki karłowate, potem na skutek zderzeń coraz większe, które z czasem grupują się, tworząc gromady i supergromady galaktyk. W tym obrazie galaktyki karłowate stanowią pewnego rodzaju cegiełki, z których budowane są większe twory. Te z nich, które przetrwały do dzisiaj, są najstarszymi obiektami tego typu we Wszechświecie. Okazuje się, że są one całkowicie zdominowane przez ciemną materię, która często przewyższa masą świecący składnik kilkadziesiąt, a nawet kilkaset razy. Ponieważ galaktyki karłowate są też najbliższymi obiektami, w których obserwuje się ciemną materię (nie licząc samej Drogi Mlecznej), można do ich badań stosować różne wyrafinowane techniki niedostępne dla obiektów znacznie dalszych. Te wszystkie cechy powodują, że galaktyki karłowate wydają się być idealnymi kandydatkami do badań ciemnej materii i testowania współczesnych teorii kosmologicznych. Ale jest jeszcze jeden ważny argument. Właśnie na galaktykach karłowatych potyka się faworyzowana teoria Zimnej Ciemnej Materii ze stałą kosmologiczną. Przewiduje ona mianowicie, że do chwili obecnej powinno przetrwać znacznie więcej galaktyk karłowatych niż w rzeczywistości się obserwuje. Jest to tzw. problem brakujących satelitów. Nie jest do końca jasne, czy wynika on z wad samej teorii, symulacji numerycznych czy może obserwacji. Najprawdopodobniej po części z wad każdego z tych czynników. Dlatego tak ważne są badania nad masami oraz rozkładem ciemnej materii wewnątrz galaktyk karłowatych.

Grupa Lokalna składa się z dwóch dużych galaktyk spiralnych, które gromadzą zdecydowaną większość masy: Drogi Mlecznej oraz M31 — galaktyki w Andromedzie (rys. 1). Grupę Lokalną wypełnia też kilkadziesiąt galaktyk karłowatych, satelitów. Okrążają one po wydłużonych, eliptycznych orbitach obie galaktyki główne. Najbardziej znane wśród nich to widoczne gołym okiem Obłoki Magellana. Są to galaktyki o nieregularnej budowie, jednak populacjami gwiazdowymi i zawartością gazu przypominają nieco galaktyki spiralne. Ponad połowa galaktyk karłowatych Grupy Lokalnej to jednak twory sferoidalne oraz eliptyczne. Właśnie te, ze względu na ich symetryczną budowę oraz zupełny brak gazu międzygwiazdowego, są najlepszymi obiektami do badania (rys. 2).

Nie jest oczywiste, skąd bierze się rozróżnienie na galaktyki nieregularne oraz sferoidalne. Najprawdopodobniej naturalną formą dającą początek galaktyce jest gazowy dysk, w którym potem powstają gwiazdy. Wydaje się więc, że taki właśnie nieregularny dysk jest charakterystyczny dla karłów raczej samotnych, które dopiero pierwszy raz pojawiły się w okolicach większej galaktyki. Natomiast kształt eliptyczny czy sferoidalny to efekt silnych oddziaływań pływowych między karłem a galaktyką, wokół której on orbituje. Na to wskazują zarówno symulacje N-ciałowe, jak i statystyczny fakt grupowania się ich w pobliżu większych galaktyk.

O funkcji rozkładu

Aby zrozumieć ideę wyznaczania rozkładu masy, a więc także ciemnej materii w galaktyce, trzeba zapoznać się z pojęciem funkcji rozkładu. Galaktyka w ogólności składa się z miliardów gwiazd. Nie sposób analitycznie badać grawitacyjnej ewolucji tak skomplikowanego tworu, gdy teoria poddaje się już przy problemie trzech ciał. Aby nieco uprościć sobie zadanie, wprowadza się tzw. funkcję rozkładu. Opisuje ona rozkład materii przy użyciu takich parametrów, jak położenie i prędkość. Jeśli rozpatrujemy same gwiazdy, to funkcja ta przyjmuje dyskretne wartości, ale łatwiej wyobrazić ją sobie jako ciągły, uśredniony rozkład. Ta funkcja f(v, r, t) to po prostu rozkład prawdopodobieństwa znalezienia gwiazdy o danej prędkości v, w danym położeniu r, w chwili czasu t. Znajomość funkcji rozkładu całkowicie definiuje nam chwilowy stan galaktyki, czyli rozkład położeń oraz prędkości jej cząstek.

Rys. 4 Diagram barwa-jasność dla galaktyki w Piecu (Fornax). Oś pozioma wyznacza barwę gwiazd, a pionowa ich jasność. Na tym diagramie jest widoczna tylko gałąź olbrzymów. Ciąg główny jest położony znacznie poniżej diagramu i jest zupełnie niedostępny dla nawet największych teleskopów. (Źródło: z materiałów własnych autora na podstawie danych udostępnionych przez Matthew G. Walkera)

Jeśli w pełni znamy funkcję rozkładu w danej chwili oraz skorzystamy z prawa powszechnego ciążenia, to potrafimy przewidzieć jej ewolucję w czasie, rozwiązując tzw. równanie Boltzmanna. Niestety, w ogólności jest to bardzo złożony problem, ale przyjmując pewne uproszczenia, takie jak sferyczna symetria funkcji rozkładu oraz izotropia prędkości (lub chociaż stała wartość anizotropii) równanie nieco się upraszcza. Jeśli dodatkowo założymy stacjonarność, tj. brak zmienności funkcji w czasie, to dostajemy zależność wiążącą funkcję rozkładu oraz potencjał grawitacyjny. Innymi słowy, znając potencjał grawitacyjny natychmiast znamy funkcję rozkładu definiującą stacjonarny rozkład materii tworzący galaktykę w tym potencjale i na odwrót, znając rozkład materii i zakładając jego stacjonarność, natychmiast umiemy obliczyć potencjał grawitacyjny. Jeśli umiemy obliczyć potencjał, to znamy także rozkład ciemnej materii, która ma do tego potencjału znaczący wkład. Tak więc problem pomiaru rozkładu ciemnej materii sprowadza się do pomiaru funkcji rozkładu gwiazd. Trzeba więc zmierzyć przestrzenny rozkład gwiazd oraz ich prędkości.

Niestety, technicznie znalezienie funkcji rozkładu gwiazd w galaktyce jest problemem dość złożonym. Istnieją co prawda metody statystyczne pozwalające odtwarzać funkcję rozkładu na podstawie pomiarów rozkładu gęstości gwiazd i ich prędkości, ale zazwyczaj stosuje się nieco inne podejście. Dowolną funkcję rzeczywistą można w pewien sposób opisać za pomocą jej momentów. I tak pierwszy moment to średnia wartość funkcji, drugi moment to wariancja (kwadrat dyspersji). Jeśli ograniczymy się do drugiego momentu, to funkcję przybliżamy rozkładem normalnym o zadanej dyspersji wokół średniej. Gdybyśmy dołączyli także czwarty moment, to funkcja byłaby rozkładem normalnym odpowiednio przez ten czwarty moment wyostrzonym lub rozmytym. Kolejne momenty odtwarzałyby oryginalną funkcję coraz dokładniej.

Przy pomocy momentów możemy w nieco inny sposób opisać także samą funkcję rozkładu. Co prawda nawet znajomość ich wszystkich nie daje gwarancji, że uda nam się funkcję całkowicie odtworzyć, to w praktyce i tak ubogie dane obserwacyjne nie pozwoliłyby odtworzyć jej lepiej niż do czwartego momentu włącznie. Tak więc, wyrażając funkcję rozkładu przy pomocy jej początkowych momentów, równanie Boltzmanna przechodzi w tzw. równanie Jeansa, prezentowane tutaj w układzie sferycznym dla drugiego momentu (na mocy symetrii zależność od ? i ? znika):

wzór

(1)

gdzie

wzór

(2)

Rys. 5 Widmo gwiazdy po redukcji, odjęciu tła i kalibracji wykonanej przy użyciu pakietu IRAF, tak jak po raz pierwszy widzi je astronom na ekranie. Wśród licznych linii absorbcyjnych do badania przesunięcia najlepiej nadaje się tryplet wapnia — trzy silne i bardzo cienkie linie w okolicach 8600 A*. W rzeczywistości jest to widmo bardzo jasnej gwiazdy porównania, a badane gwiazdy mogą być tak słabe, że nic poza szumem w ich widmach nie widać. Aby odtworzyć przesunięcia linii w tak słabych danych, stosuje się m.in. technikę kroskorelacji widm. (Źródło: z materiałów własnych autora na podstawie danych z teleskopu VLT)

to tzw. parametr anizotropii mówiący, na ile izotropowe są orbity gwiazd, ?(r) to rozkład gęstości gwiazd, ? to dyspersje prędkości (drugi moment) w kierunku odpowiednich składowych, a ? to potencjał grawitacyjny.

Aby scałkować to równanie, zazwyczaj przyjmuje się ? = 0 lub ? = const. Dodatkowo trzeba uwzględnić fakt, że właściwie jedynymi dostępnymi danymi obserwacyjnymi jest rozkład gęstości gwiazd rzutowany na płaszczyznę nieba, który otrzymuje się ze zdjęcia galaktyki, oraz prędkości rzutowane na oś obserwacji, otrzymane dzięki pomiarowi przesunięcia linii absorbcyjnych w widmie gwiazd na skutek efektu Dopplera. Trzeba więc przetłumaczyć to równanie na wartości obserwowane, dokonując rzutowania.

W efekcie otrzymujemy równanie, które wiąże powierzchniowy profil gęstości gwiazd, profil dyspersji prędkości gwiazd rzutowanej na oś obserwacji w funkcji ich rzutowanej odległości od środka galaktyki, oraz funkcję definiującą rozkład masy całkowitej. Dwie pierwsze wielkości wymagają doświadczalnego wyznaczenia, w efekcie dając trzecią. Niestety, musimy a priori przyjąć jakąś analityczną postać rozkładu ciemnej materii, a tak naprawdę dopasowujemy tylko parametry tego rozkładu. Skąd znamy postać tej funkcji? Przede wszystkim z symulacji N-ciałowych, które podpowiadają, że ciemna materia lubi przyjmować z grubsza taki sam rozkład radialny jak gwiazdy. Jeśli przyjmiemy takie założenie, to w efekcie dopasowujemy tylko stały parametr będący współczynnikiem proporcjonalności między rozkładem gęstości gwiazd oraz ciemnej materii. Parametr ten nazywamy stosunkiem masy do światła. Gdybyśmy masy wyrazili w masach Słońca, a jasności w jasnościach Słońca, to dla typowej populacji gwiazd w sferoidalnej galaktyce karłowatej otrzymamy stosunek masy do światła równy około trzech, gdyż są to średnio gwiazdy słabiej świecące od Słońca. Tzn. na jedną jasność Słońca przypadają około trzy jego masy. Jednak zmierzona wartość tego parametru w prawdziwych sferoidalnych galaktykach karłowatych waha się od ok. 10 do kilkuset. Tak więc stosunki masy ciemnej materii do masy gwiazd zmieniają się od około trzech do około stu.

Obserwacje galaktyk karłowatych

Rys. 6 Obraz otrzymany przy pomocy spektrografu. Każda szczelina (oś pionowa to oś długości szczeliny) zostawia pasek widma (oś pozioma). Szczeliny należy dobrać tak, aby otrzymane widma się nie pokrywały. W każdym pasie widoczne jest widmo samej gwiazdy (biała linia rozciągająca się wzdłuż osi poziomej) oraz widmo nocnego nieba (pozostała przestrzeń w pasku). Otrzymane widmo jest poprzecinane pionowymi liniami emisyjnymi nocnego nieba, które świecą bardzo jasno w bliskiej podczerwieni. Widoczne są także losowo porozrzucane białe punkty i kreski, które powstały na skutek licznych uderzeń w kamerę promieniowania kosmicznego podczas wielogodzinnego naświetlania. (Źródło: z materiałów własnych autora na podstawie danych z teleskopu VLT)

Sferoidalne galaktyki karłowate są obiektami dość trudnymi w obserwacji. Nie są zbyt jasne, a ich typowe odległości rzędu kilkudziesięciu do kilkuset kiloparseków to znacznie więcej niż odległości do gromad kulistych czy nawet dość bliskich Obłoków Magellana. Dlatego do ich badań używa się największych teleskopów optycznych, takich jak VLT czy Keck. Niestety, kolejka chętnych do uzyskania czasu na takim teleskopie jest największa.

Gdy przystępujemy do obserwacji, pierwszym krokiem jest wykonanie zdjęcia galaktyki w kilku filtrach barwnych (rys. 2). Ma to dwa cele. Pierwszy to wyznaczenie profilu gęstości jasności gwiazd, co, jak wiadomo jest jednym z parametrów wejściowych modelowania. Drugi cel to wybór gwiazd do późniejszych pomiarów spektroskopowych. Gwiazdy takie powinny być jak najjaśniejsze, w miarę izolowane, aby nie otrzymać wymieszanych widm, a co najważniejsze, powinny należeć do obserwowanej galaktyki karłowatej. Na tym etapie galaktyka jest niejako nałożona na mniej więcej stały rozkład gwiazd pochodzących z Drogi Mlecznej. Najprostszym sposobem, aby odrzucić te gwiazdy jest wykonanie diagramu barwa?jasność (rys. 3). Na tym diagramie gwiazdy należące do galaktyki będą układać się na znanych pasmach jak ciąg główny czy gałąź olbrzymów, a gwiazdy z Drogi Mlecznej, ze względu na ich przypadkowe odległości, będą porozrzucane losowo. Na tym etapie zwykle kończy się selekcję gwiazd, ale warto wspomnieć, że istnieją inne metody, pozwalające odrzucić gwiazdy z Drogi Mlecznej, np. dzięki rozróżnieniu ich klasy jasności. Stosuje się do tego celu zdjęcia wykonane w dość wąskich filtrach, wykalibrowanych na linię absorbcyjną czułą na potencjał grawitacyjny na powierzchni gwiazdy. Odrzucając wszystkie karły (dla większości galaktyk karłowatych zasięg teleskopu ogranicza się do gałęzi olbrzymów) otrzymujemy ostatecznie czystą próbkę.

Kolejny krok to przygotowanie maski do wykonania tzw. spektroskopii wieloobiektowej. Obrazu otrzymanego przez teleskop nie wysyła się bezpośrednio na spektrograf. Najpierw trzeba go zasłonić, a tylko w miejscach interesujących nas gwiazd wyciąć otwory, a właściwie szczeliny. W ten sposób, w zależności od typu teleskopu, na jednej takiej płytce może znaleźć się od kilkunastu do nawet kilkuset szczelin. Spektrograf niejako rozciąga szczelinę, rysując dla każdej z nich całe widmo (rys. 4). W widmie tym widać zarówno widmo samej gwiazdy (biała linia), jak i widmo nocnego nieba, które poprzecinane jest liniami emisyjnymi. Zakres prezentowany na rysunku to bliska podczerwień, w którym nocne niebo bardzo jasnoświeci. Kolejne kroki sprowadzają się do redukcji otrzymanych danych — trzeba odjąć efekty instrumentalne, wymodelować i odjąć linie nocnego nieba oraz ostatecznie wydobyć widmo gwiazdy. Kolejny krok to skalibrowanie widma tak, aby wyrazić je w funkcji długości fali (rys. 5). Potem pozostaje już tylko wybrać interesujące nas linie absorpcyjne i badać ich przesunięcie względem tych samych linii dla jakiejś gwiazdy porównania. W efekcie ze znanej zależności dla efektu Dopplera:

wzór

(3)

Rys. 7 Zmierzone prędkości gwiazd galaktyki w Piecu (Fornax) przedstawione na diagramie w funkcji ich rzutowanej odległości od środka. Gwiazdy zaznaczone na czarno zostały odrzucone jako nie związane z galaktyką. Do dalszego modelowania użyto tylko gwiazd oznaczonych kolorem szarym. (Źródło: z materiałów własnych autora)

wyznaczymy prędkość gwiazdy. Na końcu należy jeszcze uwzględnić prędkość orbitalną i rotacji Ziemi w chwili obserwacji, aby przeliczyć otrzymane wartości na prędkości heliocentryczne, tj. względem Słońca. Zwykle publikuje się je właśnie w tej formie.

Modelowanie

Gdy zakończy się etap obserwacyjny i mamy już próbki prędkości dla kilkudziesięciu, a najlepiej kilkuset gwiazd, możemy przystąpić do modelowania rozkładu masy. Zazwyczaj prędkości prezentuje się na diagramie w funkcji ich rzutowanej na niebo odległości od środka karła (rys. 6). Niestety, na tym etapie ciągle próbka może zawierać gwiazdy pochodzące z Drogi Mlecznej lub inne nie związane grawitacyjnie, których nie powinniśmy używać do modelowania. Gwiazdy te zostały wyrwane z karła na skutek jego oddziaływań pływowych z galaktyką główną. Mimo iż te ostatnie znajdują się na niebie w tym samym miejscu i tej samej odległości co badana galaktyka, to ich prędkości są zupełnie przypadkowe. Odrzucić takie gwiazdy można na oko, bądź zastosować bardziej wyrafinowane metody. Jest to dość ważny krok, gdyż nawet pojedyncza gwiazda może mocno zmienić końcowy wynik.

Kolejnym krokiem jest podzielenie gwiazd na próbki po około 20–30 o rosnących odległościach i dla każdej z nich skorzystanie ze znanej formuły na estymator dyspersji prędkości:

wzór

(4)

w efekcie czego otrzymując profil dyspersji ?(R). Teraz pozostaje już tylko dopasować teoretyczną zależność do tego profilu przy pomocy metody najmniejszych kwadratów, w efekcie otrzymując poszukiwany stosunek masy do światła oraz parametr anizotropii ? (rys. 7).

Wyniki

Rys. 8 Dopasowywanie modelu teoretycznego do danych z galaktyki w Piecu (Fornax). Na lewym panelu widać otrzymany z obserwacji profil dyspersji wraz z dopasowanym metodą najmniejszych kwadratów modelem teoretycznym. Na prawym panelu widać otrzymany wynik dla dopasowywanych parametrów, tj. masy do światła oraz parametru anizotropii ?. Zaznaczono też kontury błędów dla odpowiednio 1, 2 i 3 ?. (Źródło: z materiałów własnych autora)

Znamy już dostateczne liczby prędkości gwiazd, aby z powodzeniem modelować rozkład masy dla kilkunastu sferoidalnych galaktyk karłowatych. Niestety, okazuje się, że wyniki są bardzo czułe na zastosowaną metodologię, a przede wszystkim na wybór gwiazd do modelowania. Wydawałoby się, że tak prosty krok nie powinien sprawić problemów, jednak właśnie z tego powodu różni autorzy otrzymują często dość rozbieżne wyniki. Część autorów skłonna jest do analizy przyjąć wszystkie gwiazdy, dla których zmierzono prędkości. Otrzymują oni wtedy największe dyspersje, a więc i bardzo masywny i rozległy składnik ciemnej materii. Inni zdają sobie sprawę z konieczności odrzucenia części gwiazd, ale robią to na różne sposoby. W zależności od przyjętej metody można otrzymać zarówno modele, gdzie rozkład ciemnej materii jest taki sam jak gwiazd, albo modele o innym rozkładzie. Istnieje też problem degeneracji wyników ze względu na parametr ?. Okazuje się, że można dopasowywać równie dobrze modele o różnych wartościach tego parametru. Znieść tę degenerację można z powodzeniem stosując przy modelowaniu także czwarty moment funkcji rozkładu, ale nie jest to jeszcze szeroko stosowana metoda, gdyż wymaga dużej liczebności próbek.

Podsumowując, wiemy już całkiem sporo o rozkładzie ciemnej materii wewnątrz galaktyk karłowatych, a także o ich masach, ale nadal jest dużo do zrobienia. Jest to bardzo prężnie rozwijająca się dziedzina nauki. Przeglądy nieba, takie jak SDSS, w dużym tempie (rzędu kilku na rok) odkrywają nowe, bardzo małe galaktyki karłowate. Najbliższa przyszłość przyniesie dokładniejsze pomiary prędkości swoistych gwiazd w tych obiektach, co doda modelowaniu nowy wymiar, a także pozwoli wyznaczyć orbity całych galaktyk. Znacznie poprawiły się także symulacje N-ciałowe, które dostarczają wiedzy na temat ewolucji galaktyk karłowatych, a także pozwalają testować sposoby modelowania i selekcji gwiazd. Za sprawą tych badań z każdym dniem nasza wiedza o ciemnej materii rośnie.

Autor jest doktorantem astronomii w Centrum Astronomicznym im. Mikołaja Kopernika PAN w Warszawie. Jego zainteresowania naukowe skupiają się wokół cech fizycznych galaktyk i ciemnej materii

(Źródło: „Urania — PA” nr 3/2008)