Soczewki grawitacyjne narzędziem kosmologii

Soczewki grawitacyjne narzędziem kosmologii

Marek Biesiada

Wstęp

Soczewkowanie grawitacyjne jest zjawiskiem przewidzianym przez ogólną teorię względności (OTW). W myśl OTW istotę grawitacji stanowi zakrzywienie czasoprzestrzeni przez ciała masywne (ogólniej przez dowolny rozkład materii lub energii). Swobodne cząstki próbne oraz fotony poruszają się w zakrzywionej czasoprzestrzeni wzdłuż tzw. krzywych geodezyjnych.1

Rys. 1 Pierwsza soczewka grawitacyjna odkryta w 1978 r. — podwójny kwazar DSO-QSO-0957+561

Konsekwencją tego faktu jest zjawisko ugięcia światła w pobliżu brzegu tarczy słonecznej, którego pomiar w 1919 r. był pierwszym dowodem słuszności OTW. Właśnie to zjawisko leży u podstaw teorii soczewkowania grawitacyjnego. Wyobraźmy sobie, że na linii łączącej obserwatora ze źródłem światła (np. gwiazdą lub galaktyką) leży ciało masywne (np. inna gwiazda lub galaktyka). W klasycznym przypadku źródło byłoby niewidoczne, zasłonięte. Jednak wskutek relatywistycznego ugięcia światła część promieni świetlnych dotrze do obserwatora — masa leżąca pomiędzy źródłem i obserwatorem działa jak soczewka. W efekcie zobaczymy wokół soczewki obraz źródła w formie świecącego pierścienia. Fakt ten znany był już Einsteinowi, stąd też pierścień ów nazwany został pierścieniem Einsteina. Kątowy promień tego pierścienia, tzw. promień Einsteina dla soczewki punktowej o masie M wyraża się wzorem

wzór

gdzie Dls oznacza odległość pomiędzy soczewką (l) i źródłem (s), natomiast Dl oraz Ds to odpowiednio: odległości soczewki i źródła od obserwatora.

W przypadku, gdy układ optyczny nie jest dokładnie współosiowy, zamiast pierścienia Einsteina są widoczne wielokrotne obrazy: dwa — dla soczewki punktowej oraz pewnej klasy soczewek rozciągłych o osiowosymetrycznym2 rozkładzie masy; lub więcej — dla soczewek o nieosiowosymetrycznym rozkładzie masy (np. dla soczewek eliptycznych). Promień Einsteina określa skalę zjawiska, tj. kątową odległość między obrazami źródła. Rozważając prawdopodobieństwo zaobserwowania soczewki grawitacyjnej, wprowadza się pojęcie (elementarnego) przekroju czynnego na soczewkowanie jako ? = ??E2, zatem im większy jest promień Einsteina, tym większe staje się prawdopodobieństwo zaobserwowania układu soczewkującego. Gdy masa soczewki jest rzędu masy Słońca, a odległości typowe dla odległości między gwiazdami w galaktyce (np. rzędu 10 kpc), wówczas promień Einsteina osiągnie rząd milisekundy łuku. Fakt ten był powodem sceptycyzmu Einsteina odnośnie możliwości zaobserwowania soczewek grawitacyjnych. Jeśli natomiast w roli soczewki wystąpi galaktyka (o masie rzędu 1011 M?), a odległości między elementami układu optycznego będą kosmologiczne, tj. rzędu 10 Mpc – 1 Gpc, wówczas promień Einsteina osiągnie rząd 1 sekundy łuku — zatem znajdzie się on w zasięgu możliwości obserwacyjnych. Na fakt ten zwrócił uwagę Fritz Zwicky w 1937 r., zmieniając status soczewkowania grawitacyjnego z mało istotnej ciekawostki na zjawisko o dużym potencjale poznawczym w kontekście kosmologicznym.

Obrazy wielokrotne tworzą się, gdy linia łącząca obserwatora ze źródłem przecina sferę niebieską wewnątrz promienia Einsteina soczewki, czyli gdy ustawienie elementów układu soczewkowanego jest prawie współliniowe. Mówimy wówczas o soczewkowaniu silnym. W przeciwnym przypadku nie powstają dodatkowe obrazy, natomiast kształt źródła (jeśli jesteśmy w stanie widzieć je jako rozciągłe) ulega deformacji — mówimy wówczas o soczewkowaniu słabym. Trajektorie fotonów docierających do nas z odległych galaktyk są zaburzane przez niejednorodności mas wielkoskalowej struktury Wszechświata, produkując tym samym dający się statystycznie uchwycić3 efekt deformacji kształtu tych odległych źródeł. Tak więc efekt słabego soczewkowania grawitacyjnego staje się obecnie ważnym narzędziem współczesnej kosmologii, m.in. w ten sposób odtworzony został rozkład masy dwóch gromad galaktyk po zderzeniu, znanych jako Bullet Cluster. Wynik ten (w połączeniu z obserwacjami rentgenowskimi gazu międzygalaktycznego tych gromad) przez wielu uważany jest za bezpośredni dowód istnienia ciemnej materii. Jednak w tym artykule będziemy mówić wyłącznie o soczewkowaniu silnym.

Wyżej przytoczony wzór na promień Einsteina jest słuszny dla tzw. soczewki punktowej, np. gdy w roli soczewki występuje gwiazda (lub inny masywny obiekt zwarty), natomiast wypływające zeń intuicje pozostają słuszne nawet gdy soczewka jest rozciągła. Jednym z najprostszych modeli galaktyk — uwzględniającym fakt, że galaktyka otoczona jest masywnym halo ciemnej materii stanowiącej większość jej masy — jest tzw. model osobliwej sfery izotermicznej (SIS z ang. Singular Isothermal Sphere). Jest on parametryzowany jednowymiarową dyspersją prędkości gwiazd w galaktyce ??, która jest wielkością obserwowalną spektroskopowo. Profil gęstości w modelu SIS ma postać

wzór

wynika stąd, że masa wewnątrz sfery o promieniu r rośnie liniowo z promieniem, więc prędkość rotacji na orbicie kołowej nie zależy od promienia — jest stała:

wzór

Promień Einsteina dla soczewki SIS ma postać

wzór

Mimo sporej wiedzy i doświadczenia w zakresie konstruowania profili gęstości masy galaktyk, najprostszy model sfery izotermicznej4 zaskakująco dobrze dopasowuje się do obserwacji znanych i rzetelnie zbadanych silnych soczewek grawitacyjnych.

Widać więc, iż skala zjawiska określona jest przez masę soczewki (lub równoważną jej obserwablę, np. dyspersję prędkości w modelu SIS) oraz wzajemne odległości elementów układu optycznego. Znając odległości do soczewki i źródła, z astrometrycznych pomiarów odległości pomiędzy obrazami (z których można wyznaczyć promień Einsteina) uzyskujemy wiedzę o masie soczewki. Jest to jedna z niewielu istniejących metod bezpośredniego pomiaru masy obiektów astronomicznych. I co ważniejsze, ocenia ona całkowitą masę obiektu występującego w roli soczewki niezależnie od tego, czy świeci, czy jest on ciemny. Już tu pojawia się wizja użyteczności soczewek grawitacyjnych w badaniu tzw. ciemnej materii.

Do tej pory mówiliśmy tylko o odległościach pomiędzy obrazami (dostarczających wiedzę o promieniu soczewki Einsteina), natomiast inne obserwable silnych soczewek grawitacyjnych to: jasności względne obrazów oraz opóźnienia czasowe pomiędzy obrazami. Teoria przewiduje, że część obrazów źródła powinna mieć większą, a część mniejszą jasność niż „niesoczewkowane” źródło. Stosunek jasności obrazów jest zatem dodatkowym parametrem testującym poprawność założonego (dopasowanego do obserwacji) modelu rozkładu masy soczewki. Jednak wielkość ta okazuje się być najbardziej czuła na zakłócające wpływy „ziarnistości” soczewki, tj. faktu, że soczewka — w tym wypadku galaktyka — składa się z gwiazd i ich skupisk, których obecność na drodze promieni biegnących od różnych obrazów może przejawiać swe istnienie, zaburzając stosunek jasności obrazów dedukowany teoretycznie przy zastosowaniu uśrednionego potencjału modelującego galaktykę.

Opóźnienia czasowe z kolei biorą się stąd, iż drogi geometryczne promieni świetlnych od różnych obrazów mają różną długość, a także stąd, że owe promienie przechodzą przez soczewkę w miejscach o różnym potencjale grawitacyjnym.5 Względną skalę zjawiska wyznacza rozkład masy soczewki i geometria układu, natomiast skalę bezwzględną wprowadza odwrotność stałej Hubble'a H0–1. Zatem, jak zauważył w roku 1964 szwedzki astronom Sjur Refsdal, posiadając wiarygodny model soczewki (np. dopasowany do obserwacji położeń obrazów) i obserwując opóźnienia czasowe (gdy źródło wykazuje wewnętrzną zmienność jasności), można w sposób alternatywny wyznaczyć stałą Hubble'a. Atrakcyjność tej metody polega na tym, że — w odróżnieniu od klasycznych metod pomiaru H0 — nie zależy ona od kalibracji kosmicznych skali odległości. Obserwacyjnie sprowadza się ona do astrometrii obrazów (co potrafimy dość dobrze) oraz pomiaru opóźnień czasowych. To ostatnie nie jest już tak trywialne, bowiem nie każde źródło wykazuje odpowiednią zmienność jasności. Poza tym, dla dokładnego wyznaczenia opóźnień czasowych konieczne jest gęste próbkowanie krzywych zmian blasku obrazów, w możliwie nieprzerwanych sesjach obserwacyjnych. A to jest czasochłonne.6 Byłaby to metoda idealna, gdyby nie wpływ całkowitego rozkładu mas na drodze fotonu (czyli tła, przedpola i ziarnistości wewnątrz soczewki), powodujący zmienną wielkość opóźnień czasowych.

Wartości stałej Hubble'a, wyznaczanej tą metodą, były typowo dość niskie od 46 do 65 km s–1 Mpc–1, przez co znajdowały się w konflikcie z „obowiązującą” wartością 72 km s–1 Mpc–1, wyznaczoną przez HST. Ostatnie zastosowania metody opóźnień na próbce jedenastu silnych soczewek grawitacyjnych dały już wynik zgodny z HST (71 km s–1 Mpc–1).

Krótka historia odkryć

Impetu dla rozwoju dziedziny dostarczyły odkrycia pierwszych soczewek grawitacyjnych. W roku 1978 Walsh, Carswell i Weymann odkryli pierwszą optyczną soczewkę grawitacyjną. Był to „podwójny” kwazar QSO 0957+561A, B, źródło o dwóch obrazach A i B odległych o 6'', posiadających identyczne widma, o takich samych stosunkach jasności w świetle widzialnym i w zakresie radiowym, z obecnością leżącej pośrodku galaktyki przedpola (soczewki), zaś kropkę nad i postawiły wyniki obserwacji VLBI, pokazujące identyczną morfologię obrazów. W 10 lat później Hewitt i wsp. (1987) odkryli za pomocą fal radiowych pierwszy pierścień Einsteina. W tym samym roku odkryto również gigantyczne łuki wokół gromad galaktyk A370 i Cl 2244. Ponadto Bohdan Paczyński postawił tezę, jakoby były to obrazy odległych galaktyk tła, soczewkowanych przez owe gromady. Propozycja ta została wkrótce potwierdzona tuż po zmierzeniu przesunięć ku czerwieni łuków, które okazały się większe niż przesunięcia ku czerwieni gromad.

W ostatnim półwieczu teoria soczewek grawitacyjnych była przedmiotem intensywnych badań teoretycznych i stała się nawet polem zastosowania awangardowych teorii matematycznych, takich jak teoria katastrof, czy teoria Morse'a. Jest to piękny przykład jak, wydawałoby się abstrakcyjne i odległe od zastosowań praktycznych, konstrukcje matematyczne przejawiają się w strukturze obserwowanego świata.

Pierwszy etap budowania katalogu soczewek grawitacyjnych polegał na dokonywaniu przeglądów populacji potencjalnych źródeł (w tym wypadku kwazarów). W poszukiwaniach skupiano uwagę na blisko położonych konfiguracjach kwazarów z nadzieją, że odnajdzie się w nich podwójne lub nawet wielokrotne obrazy powstałe w wyniku soczewkowania. Dynamika odkryć dokonanych tą techniką nie jest specjalnie imponująca, choć zauważalna: od odkrycia pierwszej soczewki optycznej (1978) do ok. 1992 r. znano 11 układów silnie soczewkujących, natomiast w roku 2006 było ich około 70, a w chwili obecnej baza danych projektu CASTLES7 zawiera ponad 100 soczewek optycznych odkrytych tą metodą.

Alternatywą jest skupienie uwagi na populacji potencjalnych soczewek. Większość dotychczas odkrytych silnych soczewek to masywne galaktyki eliptyczne.8 Toczący się od kilku lat przegląd SLACS9 bazuje właśnie na tej technice. W bazie danych spektroskopowych przeglądu SDSS poszukuje się galaktyk eliptycznych, w których widmach przejawiają się linie emisyjne odpowiadające większemu przesunięciu ku czerwieni, niż ma badana galaktyka. Jeśli znajdzie się co najmniej trzy takie linie, odpowiadające temu samemu (większemu) przesunięciu ku czerwieni, galaktyka staje się kandydatem do miana układu soczewkującego. Następnie obraz galaktyki poddaje się obróbce cyfrowej, odejmując (typowy dla galaktyk eliptycznych) profil jasności de Vaucouleursa. Gdy procedura ta uwidoczni (wcześniej „ukryte” w świetle gwiazd soczewki) wielokrotne obrazy źródła, potwierdza się odkrycie soczewki. Technika przeglądu SLACS jest bardzo obiecująca: od roku 2006 do chwili obecnej odkryto w ten sposób już 55 silnych soczewek. Ponadto z samej konstrukcji przeglądu otrzymujemy od razu dane spektroskopowe o nieocenionej wartości: nie tylko przesunięcia ku czerwieni soczewki i źródła, lecz także centralne dyspersje prędkości soczewki, umożliwiające wiarygodne ich modelowanie. Jedyną wadą przeglądu SLACS jest to, że w odróżnieniu do przeglądów kwazarów próbkuje on jedynie umiarkowane przesunięcia ku czerwieni (nie przekraczające z = 1).

Wyzwania współczesnej kosmologii

Kosmologia wkroczyła obecnie w stadium precyzyjnych pomiarów podstawowych parametrów identyfikujących właściwy teoretyczny model obserwowanego Wszechświata. Gdy w latach 70. powstawała kosmologia obserwacyjna, istniejące wówczas możliwości obserwacyjne definiowały10 jej cel jako „wyznaczenie dwóch liczb H0 i q0”, czyli tempa ekspansji i parametru spowalniania (deceleracji). Obecnie, w momencie gdy zostały one rozszerzone o precyzyjne obserwacje (anizotropii) promieniowania mikrofalowego tła (np. eksperymenty COBE, Boomerang, Maxima, WMAP czy niedawno rozpoczęta misja PLANCK), badanie rozkładu struktury wielkoskalowej (opierając się na głębokich przeglądach galaktyk: CfA, las Campanas, 2dFRGS, SDSS), oznaczenia zawartości pierwiastków lekkich (2D, 3He, 4He, 7Li) we Wszechświecie, naszą wiedzę o fizyce i ewolucji Wszechświata opisuje już ok. 20 parametrów oszacowanych z dużą dokładnością, np. w eksperymencie WMAP. W szczególności z dokładnością ok. 2% (WMAP) — wiadomo, że Wszechświat jest przestrzennie płaski (tzn. ?tot = 1,02±0,02).11

Problem ciemnej materii, sygnalizowany już w latach 30. przez Oorta i Zwicky'ego urósł do rangi prawdziwego problemu w połowie lat 70. XX w., tuż po odkryciu płaskich krzywych rotacji galaktyk spiralnych. Obserwacje promieniowania X w gromadach galaktyk, badania dynamiki galaktyk eliptycznych oraz oszacowania mas galaktyk soczewkujących grawitacyjnie potwierdzają wynik, iż masy galaktyk i gromad znacznie przekraczają budżet masy składowych świecących (w całym zakresie widma elektromagnetycznego), tzn. gwiazd, gazu i pyłu. Kosmologowie dość wcześnie zdali też sobie sprawę z tego, że ciemna materia jest potrzebna w roli zaczątków struktury wielkoskalowej Wszechświata. Ustalony niezależnymi metodami całkowity budżet materii daje w przybliżeniu ?m = 0,27. Z drugiej strony, modele numeryczne nukleosyntezy pierwotnej dają wyniki zgodne z obserwowaną zawartością pierwiastków lekkich — przy założeniu, że gęstość zwykłej znanej nam materii (tzw. barionowej) nie przekracza 0,05 gęstości krytycznej (?b = 0,05). Sugeruje to, iż ciemna materia, jeśli istnieje,12 musi mieć naturę niebarionową. Okazało się również, że fizycy cząstek elementarnych, z zupełnie innych powodów, także spodziewają się istnienia niebarionowej materii (cząstek supersymetrycznych lub aksjonów). Ten nieoczekiwany zbieg niezależnych w swej naturze inspiracji, potwierdza realność i wagę problemu ciemnej materii dla współczesnej nauki.

Rok 1998 przyniósł kolejny zaskakujący wynik — i to w zakresie jednej z fundamentalnych przez 40 lat „dwóch liczb” (q0). Mianowicie: wyniki obserwacji supernowych typu Ia, uważanych za świece standardowe, dostarczyły silnego dowodu dla przyspieszającej ekspansji Wszechświata. Zdziwienie tym rezultatem wynika stąd, że Wszechświat wypełniony znaną nam materią oraz promieniowaniem, których gęstości energii oraz ciśnienia są nieujemne, powinien zwalniać tempo swej ekspansji. Właśnie z tego powodu parametr „q0” nazwano parametrem spowalniania.

W świetle braku znanej przyczyny tego zjawiska, dominująca część zawartości Wszechświata odpowiedzialna za owo przyspieszenie bywa nazywana „ciemną energią”.13 Zatem ok. 70% materii (energii) we Wszechświecie przypada na nieznaną składową, co stanowi ogromne wyzwanie nie tylko dla kosmologii, lecz i dla całej współczesnej fizyki teoretycznej. Z tego powodu testowanie obserwacyjne różnych modeli teoretycznych, tłumaczących fenomen „ciemnej energii”, jest jednym z najistotniejszych kierunków współczesnej kosmologii.

Najprostszym fizycznym modelem tłumaczącym efekt przyspieszającej ekspansji jest jednorodny i izotropowy model z ciemną materią i stałą kosmologiczną. Skrótowo bywa on także nazywany modelem ?CDM (ang. ?-Cold Dark Matter). Ten najprostszy model pasuje dobrze do niezależnych danych, takich jak: widmo mocy wielkoskalowej struktury Wszechświata, diagram Hubble'a (zależność m(z)) dla supernowych typu Ia, statystyki soczewkowania grawitacyjnego, czy anizotropia promieniowania mikrofalowego tła. Z teoretycznego punktu widzenia pojawiają się pytania dotyczące natury stałej kosmologicznej ?. Po pierwsze, jeżeli stała kosmologiczna odzwierciedlałaby kwantowo-mechaniczną energię próżni, to obliczenia prowadzone na gruncie kwantowej teorii pola sugerują jej wartość o 55 rzędów wielkości większą niż sugerowana przez argumenty natury kosmologicznej. Po drugie, pojawia się pytanie „dlaczego akurat teraz?” Istotą tego problemu jest fakt, iż aby galaktyki i ich gromady mogły powstać, proces ich formowania musiał rozpocząć się w epoce dominacji materii. Trudny do naturalnego wyjaśnienia jest powód, dla którego przejęcie dominującej dynamicznie roli przez stałą kosmologiczną miałoby nastąpić w niezbyt odległej (w kosmologicznych skalach czasu) przeszłości. Problem ten znany jest jako problem koincydencji (ang. fine tuning problem).

Wraz z powstaniem w latach 80. scenariuszy inflacyjnych uwaga teoretyków zwróciła się w kierunku badania roli pól skalarnych w kosmologii. W kontekście alternatywy dla stałej kosmologicznej jako przyczyny przyspieszającej ekspansji Wszechświata pojawiły się zatem pola skalarne. Pole skalarne występujące w roli ciemnej energii określa się mianem kwintesencji. Fenomenologicznie, kwintesencja opisywana jest jako hipotetyczny fluid kosmiczny o równaniu stanu p = w?. Z równań Einsteina wynika natomiast, iż aby uzyskać efekt przyspieszającej ekspansji, musi pojawić się w < –1/3. Przypadek stałej kosmologicznej, fenomenologicznie, odpowiada sytuacji, gdy w = –1. Jeżeli poważnie traktujemy naturę fizyczną kwintesencji jako przejaw istnienia (ewoluującego w czasie) pola skalarnego ?, nie powinniśmy widzieć powodu, dla którego współczynnik w fenomenologicznego równania stanu miałby być stały w czasie. Należy więc brać pod uwagę również możliwość zmiennego w czasie (a zatem będącego funkcją przesunięcia ku czerwieni) współczynnika w równaniu stanu w = w(t) = w(z). Ponieważ nie istnieją żadne teoretyczne przesłanki wyraźnie preferujące konkretną postać potencjału pola skalarnego, natomiast obserwacje testujące efekt przyspieszającej ekspansji Wszechświata dotyczą małych i umiarkowanych przesunięć ku czerwieni, dokonuje się rozwinięcia funkcji w(z) w szereg Taylora, poprzestając na wyrazie liniowym.14 Inne, bardziej egzotyczne podejścia, to przyjęcie tzw. gazu Czapłygina lub modele Wszechświata z wyższymi wymiarami.

Rys. 2 Pięć jasnych, białych punktów widocznych na zdjęciu w pobliżu centrum gromady galaktyk to tak naprawdę obrazy tego samego odległego kwazara. Pochodzący z teleskopu Hubble'a obraz jest tak szczegółowy, że jest widoczna na nim nawet galaktyka macierzysta otaczająca kwazar! Jeśli przyjrzymy się bliżej, zauważymy także, że łuki na 2-giej i 4-tej godzinie to soczewkowane grawitacyjnie obrazy jednej galaktyki. Trzeci obraz tej samej galaktyki można dostrzec około godziny 10-tej. Pełniąca rolę olbrzymiej soczewki grawitacyjnej gromada galaktyk jest skatalogowana jako SDSS J1004+4112 i znajduje się około 7 mld lat św. od nas, w gwiazdozbiorze Małego Lwa. Fot. K. Sharon (Tel Aviv U.), E. Ofek (Caltech), ESA, NASA

Nawet z powyższego, skrótowego opisu widać, iż brak jest klarownej sugestii ze strony teorii odnośnie do tego, gdzie należy upatrywać wyjaśnienia fenomenu przyspieszającej ekspansji Wszechświata. W tej sytuacji jeszcze większej wagi (nie tylko dla kosmologii, lecz również dla fizyki teoretycznej) nabierają testy kosmologiczne. Generalnym problemem wszystkich testów kosmologicznych są efekty systematyczne oraz fakt, że parametry modelu kosmologicznego (a równanie stanu ciemnej energii w szczególności) nie są bezpośrednio testowalne, lecz przejawiają się one w sposób uwikłany poprzez tempo ekspansji Wszechświata (funkcję Hubble'a H(z)). Dlatego ważne jest analizowanie modeli kosmologicznych przez pryzmat różnych (często uzupełniających się, jeśli chodzi o czułość i tzw. degenerację ze względu na parametry) testów kosmologicznych, a soczewki grawitacyjne mogą dostarczyć nowej klasy takich alternatywnych testów.

Jak powiedziano wcześniej, spośród licznych szczegółowych i ważnych problemów współczesnej kosmologii fizycznej, dwa generalne problemy zasługują na szczególną uwagę i będą się znajdować w centrum zainteresowania przez najbliższe dekady. Są to (hasłowo ujmując) problem ciemnej materii i problem ciemnej energii, a ten ostatni na obecnym etapie wiedzy sprowadza się do wyznaczenia efektywnego równania stanu (parametru w) oraz detekcji jego ewentualnej dynamiki czasowej.

Problem ciemnej materii — rekonstrukcja rozkładu masy

W kontekście modeli powstawania struktury wielkoskalowej Wszechświata, najpopularniejszy jest obecnie model ?CDM. Wykonywane w ramach tego modelu numeryczne symulacje struktury wielkoskalowej, której zaczątkami miałyby być zagęszczenia zimnej ciemnej materii, wciągające w swe studnie potencjału zwykłą materię barionową, a w efekcie przejawiające się jako ciemne halo powstałych potem galaktyk, pokazują znacznie większe bogactwo struktury od tego, jakie widzimy w obserwacjach. Scenariusz ten przewiduje, że masywne galaktyki powinny być bogato otoczone mniej masywnymi koncentracjami ciemnej materii. Częściowo w ten sposób tłumaczy się występowanie satelitarnych galaktyk karłowatych w pobliżu dużych galaktyk, jest ich jednak zbyt mało w porównaniu z przewidywaniami modelu. Czy zatem brakująca część przewidywanych teoretycznie drobnoskalowych skupisk składa się wyłącznie z ciemnej materii? Jak się wydaje, silne soczewki grawitacyjne mogą rzucić nowe światło na ten problem. Znane są mianowicie przykłady silnych soczewek o anomalnych stosunkach jasności obrazów. Otóż, przy zadanym profilu gęstości soczewki i konfiguracji elementów układu optycznego, teoria soczewek grawitacyjnych określa precyzyjnie nie tylko położenia obrazów, lecz także to, które z nich i w jakim stopniu powinny być wzmocnione. Natomiast w kilku silnych soczewkach stosunki jasności pewnych obrazów wyraźnie odbiegają od przewidywań (najlepiej dopasowanego do położeń obrazów) modelu soczewki. W ten sposób mogą się przejawiać drobnoskalowe skupiska masy (gromady kuliste lub aglomeraty złożone wyłącznie z ciemnej materii). Gdy obecnie trwające (np. SLACS) oraz planowane, przyszłe przeglądy silnych soczewek dostarczą już bogatej statystycznie próbki, łączne analizy położeń obrazów, ich jasności i opóźnień czasowych stworzą unikalną metodę testowania „ziarnistości” soczewek w niedostępnych obecnie skalach mas.

Model powstawania struktury w oparciu o ciemną materię przewiduje ponadto uniwersalny profil gęstości ciemnego halo, tzw. profil Navarro-Frenka-White'a. W obszarach centralnych różni się on wyraźnie od profilu izotermicznego, który, jak na razie, jest najlepiej pasującym do obserwacji silnych soczewek grawitacyjnych. Przeglądy typu SLACS, których nieodłączną składową są obserwacje spektroskopowe (dające informację o centralnych dyspersjach prędkości w soczewkach), będą przełomowe dla badań profilu gęstości, a więc i dla testowania modeli formacji struktur we Wszechświecie.

Problem ciemnej energii — kosmografia

Wyznaczanie parametrów modelu kosmologicznego, takich jak parametry gęstości różnych składników materialnych Wszechświata, czy wyznaczanie efektywnego równania stanu (parametru w opisanego wyżej) bywa określane mianem kosmografii. Dotychczas stosowano tu metody statystyczne polegające na porównywaniu teoretycznie wyznaczonych częstości występowania wielokrotnych obrazów kwazarów w różnych scenariuszach kosmologicznych, ze statystyką silnie soczewkowanych obrazów w przeglądach optycznych lub radiowych. Podejście to zależy silnie od poczynionych założeń odnośnie do ewolucji źródeł i efektów selekcji leżących u podstaw katalogów. Ponieważ, jak to omówiliśmy wcześniej, wczesne katalogi soczewek były budowane na podstawie przeglądów kwazarów, czynione tu założenia wnoszą sporą niepewność.

Przeglądy nowej generacji (jak SLACS) posiadają już dobrze zdefiniowaną funkcję selekcji — prawdopodobieństwo wystąpienia galaktyki w roli soczewki jest proporcjonalne do czwartej potęgi centralnej dyspersji prędkości (por. wzory na przekrój czynny i promień Einsteina w modelu SIS). Poprzez sparowanie i porównanie własności odkrytych galaktyk-soczewek z analogicznymi galaktykami eliptycznymi nie będącymi elementem silnie soczewkującego układu, można zatem odpowiedzieć na pytanie, czy populacja soczewek odkrywanych przez SLACS jest reprezentatywna dla ogólnej populacji galaktyk eliptycznych. Wyniki opublikowane przez zespół SLACS pokazują, że tak.

Wraz z rosnącą liczbą silnie soczewkowanych układów o dobrze zbadanych własnościach galaktyk soczewkujących (tzn. zmierzonych spektroskopowo centralnych dyspersjach prędkości) zaczyna nabierać znaczenia wykorzystanie tych obiektów do testów kosmologicznych. W jednej z prac Autora była badana możliwość wykorzystania silnych soczewek grawitacyjnych w celu uzyskiwania ograniczeń na równanie stanu ciemnej energii w modelu kosmologicznym. W charakterze przykładu wykorzystano tam soczewkę HST 14176+5226 w celu konfrontacji jej znanych (obserwacyjnie) parametrów z różnymi scenariuszami kosmologicznymi.Zastosowana metoda wykorzystuje funkcyjną zależność promienia Einsteina od (efektywnej) dyspersji prędkości w galaktyce soczewkującej oraz od kombinacji wzajemnych odległości źródła, soczewki i obserwatora. Ponieważ ta ostatnia wielkość wymaga założenia konkretnego modelu kosmologicznego, można ją stosować w roli testu różnych modeli kosmologicznych.

Rozszerzenie tego pomysłu na bogatszą statystycznie próbkę silnych soczewek jest tematem toczącego się projektu (grantu MNiSzW), realizowanego przez Autora wspólnie z Aleksandrą Piórkowską i Beatą Malec (Uniwersytet Śląski). Na próbce 20 soczewek, z których 15 pochodzi z przeglądu SLACS, a 5 z przeglądu CASTLES, były prowadzone badania różnych modeli kosmologicznych. W szczególności, opierając się na silnie soczewkowanych układach, wyznaczono parametry modeli kosmologicznych z kwintesencją i ewoluującym polem skalarnym. Ich wartości są zbliżone do wyników uzyskanych innymi metodami (np. na próbkach supernowych Ia). Teoretyczno-informacyjne metody selekcji modeli sugerują, iż model z ewoluującym polem skalarnym wydaje się być preferowany przez dane z silnych soczewek. W świetle małej liczebności próbki, wynik ten należy traktować przede wszystkim jako dowód tego, iż metoda działa, oraz jako zachętę dla dalszego jej rozwijania. Metoda zaproponowana w projekcie jest niezależna od wartości stałej Hubble'a, nie jest także czuła na inne czynniki, takie jak efekt absorpcji promieniowania przez pył międzygwiazdowy i międzygalaktyczny (zarówno w obrębie soczewki, jak i na drodze do obserwatora) czy efekt ewolucji źródeł. W większości innych podejść efekty te są nieuniknione i stanowią źródło błędów systematycznych o słabo poznanej wielkości. Bardzo obiecujące wydaje się wykonanie łącznej analizy ograniczeń dostarczonych przez silnie soczewkujące układy wraz z ograniczeniami pochodzącymi z diagramu Hubble'a supernowych Ia i pików akustycznych w widmie anizotropii promieniowania mikrofalowego tła (CMBR). Wynika to z faktu, że obszary przestrzeni parametrów ograniczane tymi technikami posiadają różny kształt i orientację. Zatem ich część wspólna powinna być silniej restryktywna niż ograniczenia uzyskiwane oddzielnie.

Zakończenie

W przeciągu ponad trzydziestu lat, od odkrycia pierwszej soczewki grawitacyjnej, teoria soczewek grawitacyjnych stała się dziedziną bogato eksploatowaną zarówno w kontekście kosmologicznym, jak i w kontekście badania struktury galaktyk (profili rozkładu ciemnej materii w halo). Duży wkład w rozwój tej dziedziny wniosła polska szkoła badania soczewek grawitacyjnych zapoczątkowana przez przełomowe teoretyczne prace Bohdana Paczyńskiego. Najbardziej znanym sukcesem polskiej szkoły są wyniki eksperymentu OGLE, koordynowanego od lat przez Andrzeja Udalskiego, które doprowadziły m.in. do wykrycia wielu pozasłonecznych układów planetarnych metodą mikrosoczewkowania gwiazd naszej Galaktyki. Chociaż wątek ten jest obecnie odległy od kosmologii, warto przypomnieć, że oryginalny pomysł Paczyńskiego, dotyczący mikrosoczewkowania, posiadał wyraźny kontekst kosmologiczny związany z problemem ciemnej materii. Zmierzał on mianowicie do oszacowania tego, jak duża część ciemnego halo Galaktyki przypada na zwarte ciemne obiekty masywne (tzw. MACHO).

Ocenia się, że w ciągu następnej dekady liczebność katalogów silnych soczewek może sięgnąć kilku tysięcy. Kosmologiczne testy przy użyciu silnych soczewek grawitacyjnych staną się wówczas bardzo silnym wzmocnieniem podejść klasycznych. Śmiało można zatem powiedzieć, że silne soczewki grawitacyjne staną się w przyszłości nieocenionym narzędziem kosmologii i astrofizyki pozagalaktycznej.

Autor ukończył astronomię na Uniwersytecie Jagiellońskim, tam też doktoryzował się pod kierunkiem ks. prof. Michała Hellera. W latach 1989–1998 pracował w CAMK. Obecnie jest prof. nadzw. na Uniwersytecie Śląskim. Jego zainteresowania badawcze obejmują kosmologię teoretyczną i obserwacyjną oraz astrofizykę cząstek elementarnych
(Źródło: „Urania — PA” nr 1/2011)
  1. Krzywe geodezyjne można rozumieć jako linie o ekstremalnej długości łączące dwa punkty w zakrzywionej przestrzeni. W ten sposób geodetyki uogólniają pojęcie linii prostej do dowolnej (nieeuklidesowej) geometrii. 
  2. Osiowa symetria odnosi się do zrzutowanego na sferę niebieską dwuwymiarowego rozkładu masy; rozkład masy soczewki jest wówczas sferycznie symetryczny. 
  3. Czyli odróżnić od przypadkowych efektów — różnic kształtu własnego galaktyk oraz efektu rzutowania na sferę niebieską. 
  4. A także jego proste uogólnienie, tzw. osobliwa izotermiczna elipsoida (SIE). 
  5. Zjawisko opóźnienia sygnału w polu grawitacyjnym, znane jako efekt Shapiro, jest jedną z konsekwencji OTW. Ma ono podobną naturę jak zjawisko grawitacyjnego przesunięcia ku czerwieni. 
  6. Jedne z najdłuższych opóźnień czasowych wynoszące 822 dni zmierzono pomiędzy obrazami C i A soczewki SDSS J1004+4112, artykuł ogłaszający ten pomiar (J. Fohlmeister i wsp. ApJ, 676, 761 2008) nosił tytuł Nagroda za cierpliwość
  7. http://cfa-www.harvard.edu/castles/ 
  8. Jak pamiętamy, przekrój czynny na soczewkowanie zależy kwadratowo od promienia Einsteina, a zatem masywniejsze obiekty mają większe prawdopodobieństwo stać się soczewkami. Hierarchiczny scenariusz powstawania galaktyk zakłada, że galaktyki eliptyczne pochodzą z połączenia się mniej masywnych galaktyk spiralnych, a zatem stanowią masywniejszą populację. Niemniej jednak znane są przykłady układów, w których rolę soczewek pełnią galaktyki spiralne. 
  9. http://www.slacs.org 
  10. Allan Sandage, Physics Today, 23, 34, 1970
  11. W kosmologii naturalną skalą gęstości materii (energii) jest tzw. gęstość krytyczna ?cr = 3H02/8?G. Wyrażone w jej jednostkach obecne gęstości różnych składowych materialnej zawartości Wszechświata (materii, promieniowania, pól skalarnych itp.) oznacza się symbolami ?i — zatem ?tot = 1 oznacza, że suma tych gęstości jest równa gęstości krytycznej. 
  12. Jako najstarsze, alternatywne wyjaśnienie fenomenu płaskich krzywych rotacji pojawił się model zmodyfikowanej dynamiki newtonowskiej Mordehaia Milgroma, tzw. MOND. Przywołany — wydawałoby się ad hoc — model ten przewidział wiele z później odkrytych empirycznie własności fenomenologii galaktyk. Mimo wielu prób konfrontacji z obserwacjami, nie dostarczono jeszcze decydującego empirycznego dowodu jego falsyfikacji, dlatego warto o nim pamiętać. Gdyby okazał się słuszny, w postaci oryginalnej bądź — co jest bardziej prawdopodobne — jako granica ogólniejszej teorii, miałoby to zapewne daleko idące konsekwencje dla fundamentów fizyki klasycznej. 
  13. Jest to oczywiście najprostsza możliwość, ale nie jedyna. Interesujące alternatywne podejścia za punkt wyjścia biorą fakt, iż obserwacji dokonujemy z miejsca, gdzie rozkład materii jest silnie niejednorodny, a interpretujemy je w ramach modelu uśrednionego — o jednorodnym i izotropowym rozkładzie materii. Jak w sposób spójny teoretycznie dokonywać takiego uśrednienia, pozostaje wciąż nie rozwiązanym do końca problemem OTW. Już w latach 80. XX w. George Ellis zwrócił uwagę, że proces uśredniania po niejednorodnościach może się efektywnie przejawiać jak „dodatkowy składnik” materialny. Współczesne oszacowania tego efektu sugerują jednak, że jest on zbyt słaby, aby mógł być odpowiedzialny za „fenomen przyspieszającej ekspansji”. Inne podejście to założenie od razu modelu niejednorodnego, np. Lemaitre'a?Tolmana (jest ono rozwijane m.in. przez Andrzeja Krasińskiego i Krzysztofa Bolejkę z CAMK). Pojęcie „ciemnej energii” należy więc traktować bardziej jako użyteczne hasło identyfikujące problem. 
  14. Chociaż z jest obserwablą, to jednak prawdziwym stopniem swobody jest czynnik skali a. Zatem jeszcze popularniejsze jest rozwinięcie w szereg względem czynnika skali a — jest to tzw. parametryzacja Chevalliera-Polarskiego-Lindera.