Soczewki grawitacyjne narzędziem kosmologii
Wstęp
Soczewkowanie grawitacyjne jest zjawiskiem przewidzianym przez ogólną teorię względności (OTW). W myśl OTW istotę grawitacji
stanowi zakrzywienie czasoprzestrzeni przez ciała masywne (ogólniej
przez dowolny rozkład materii lub energii). Swobodne cząstki próbne oraz
fotony poruszają się w zakrzywionej czasoprzestrzeni wzdłuż tzw. krzywych geodezyjnych.1
Konsekwencją tego faktu jest zjawisko ugięcia światła w pobliżu brzegu tarczy słonecznej, którego pomiar w 1919 r. był pierwszym dowodem słuszności OTW. Właśnie to zjawisko leży u podstaw teorii soczewkowania grawitacyjnego. Wyobraźmy sobie, że na linii łączącej obserwatora ze źródłem światła (np. gwiazdą lub galaktyką) leży ciało masywne (np. inna gwiazda lub galaktyka). W klasycznym przypadku źródło byłoby niewidoczne, zasłonięte. Jednak wskutek relatywistycznego ugięcia światła część promieni świetlnych dotrze do obserwatora — masa leżąca pomiędzy źródłem i obserwatorem działa jak soczewka. W efekcie zobaczymy wokół soczewki obraz źródła w formie świecącego pierścienia. Fakt ten znany był już Einsteinowi, stąd też pierścień ów nazwany został pierścieniem Einsteina. Kątowy promień tego pierścienia, tzw. promień Einsteina dla soczewki punktowej o masie M wyraża się wzorem
gdzie Dls oznacza odległość pomiędzy soczewką (l) i źródłem (s), natomiast Dl oraz Ds to odpowiednio: odległości soczewki i źródła od obserwatora.
W przypadku, gdy układ optyczny nie jest dokładnie współosiowy, zamiast pierścienia Einsteina są widoczne wielokrotne obrazy: dwa — dla soczewki punktowej oraz pewnej klasy soczewek
rozciągłych o osiowosymetrycznym2
rozkładzie masy; lub więcej — dla soczewek o nieosiowosymetrycznym
rozkładzie masy (np. dla soczewek eliptycznych). Promień Einsteina
określa skalę zjawiska, tj. kątową odległość między obrazami źródła.
Rozważając prawdopodobieństwo zaobserwowania soczewki grawitacyjnej,
wprowadza się pojęcie
(elementarnego) przekroju czynnego na soczewkowanie jako ? = ??E2,
zatem im większy jest promień Einsteina, tym większe staje się
prawdopodobieństwo zaobserwowania układu soczewkującego. Gdy masa
soczewki jest rzędu masy Słońca, a odległości typowe dla odległości
między gwiazdami w galaktyce (np. rzędu 10 kpc), wówczas promień Einsteina osiągnie rząd milisekundy łuku.
Fakt ten był powodem sceptycyzmu Einsteina odnośnie możliwości
zaobserwowania soczewek grawitacyjnych. Jeśli natomiast w roli soczewki
wystąpi galaktyka (o masie rzędu 1011 M?), a odległości między elementami układu optycznego będą kosmologiczne, tj. rzędu 10 Mpc – 1 Gpc, wówczas promień Einsteina osiągnie rząd 1 sekundy łuku — zatem znajdzie się on w zasięgu możliwości obserwacyjnych. Na fakt ten zwrócił uwagę Fritz Zwicky
w 1937 r., zmieniając status soczewkowania grawitacyjnego z mało
istotnej ciekawostki na zjawisko o dużym potencjale poznawczym w
kontekście kosmologicznym.
Obrazy wielokrotne tworzą się, gdy linia łącząca obserwatora ze źródłem przecina sferę niebieską
wewnątrz promienia Einsteina soczewki, czyli gdy ustawienie elementów
układu soczewkowanego jest prawie współliniowe. Mówimy wówczas o
soczewkowaniu silnym. W przeciwnym przypadku nie powstają dodatkowe
obrazy, natomiast kształt źródła (jeśli jesteśmy w stanie widzieć je
jako rozciągłe) ulega deformacji — mówimy wówczas o soczewkowaniu
słabym. Trajektorie fotonów
docierających do nas z odległych galaktyk są zaburzane przez
niejednorodności mas wielkoskalowej struktury Wszechświata, produkując
tym samym dający się statystycznie uchwycić3
efekt
deformacji kształtu tych odległych źródeł. Tak więc efekt słabego
soczewkowania grawitacyjnego staje się obecnie ważnym narzędziem
współczesnej kosmologii, m.in. w ten sposób odtworzony został rozkład masy dwóch gromad galaktyk po zderzeniu, znanych jako Bullet Cluster. Wynik ten (w połączeniu z obserwacjami rentgenowskimi gazu międzygalaktycznego tych gromad) przez wielu uważany jest za bezpośredni dowód istnienia ciemnej materii. Jednak w tym artykule będziemy mówić wyłącznie o soczewkowaniu silnym.
Wyżej przytoczony wzór na promień Einsteina jest słuszny dla tzw. soczewki punktowej, np. gdy w roli soczewki występuje gwiazda (lub inny masywny obiekt zwarty), natomiast wypływające zeń intuicje pozostają słuszne nawet gdy soczewka jest rozciągła. Jednym z najprostszych modeli galaktyk — uwzględniającym fakt, że galaktyka otoczona jest masywnym halo ciemnej materii stanowiącej większość jej masy — jest tzw. model osobliwej sfery izotermicznej (SIS z ang. Singular Isothermal Sphere). Jest on parametryzowany jednowymiarową dyspersją prędkości gwiazd w galaktyce ??, która jest wielkością obserwowalną spektroskopowo. Profil gęstości w modelu SIS ma postać
wynika stąd, że masa wewnątrz sfery o promieniu r rośnie liniowo z promieniem, więc prędkość rotacji na orbicie kołowej nie zależy od promienia — jest stała:
Promień Einsteina dla soczewki SIS ma postać
Mimo sporej wiedzy i doświadczenia w zakresie konstruowania profili
gęstości masy galaktyk, najprostszy model sfery izotermicznej4
zaskakująco dobrze dopasowuje się do obserwacji znanych i rzetelnie zbadanych silnych soczewek grawitacyjnych.
Widać więc, iż skala zjawiska określona jest przez masę soczewki (lub równoważną jej obserwablę, np. dyspersję prędkości w modelu SIS) oraz wzajemne odległości elementów układu optycznego. Znając odległości do soczewki i źródła, z astrometrycznych pomiarów odległości pomiędzy obrazami (z których można wyznaczyć promień Einsteina) uzyskujemy wiedzę o masie soczewki. Jest to jedna z niewielu istniejących metod bezpośredniego pomiaru masy obiektów astronomicznych. I co ważniejsze, ocenia ona całkowitą masę obiektu występującego w roli soczewki niezależnie od tego, czy świeci, czy jest on ciemny. Już tu pojawia się wizja użyteczności soczewek grawitacyjnych w badaniu tzw. ciemnej materii.
Do tej pory mówiliśmy tylko o odległościach pomiędzy obrazami (dostarczających wiedzę o promieniu soczewki Einsteina), natomiast inne obserwable silnych soczewek grawitacyjnych to: jasności względne obrazów oraz opóźnienia czasowe pomiędzy obrazami. Teoria przewiduje, że część obrazów źródła powinna mieć większą, a część mniejszą jasność niż „niesoczewkowane” źródło. Stosunek jasności obrazów jest zatem dodatkowym parametrem testującym poprawność założonego (dopasowanego do obserwacji) modelu rozkładu masy soczewki. Jednak wielkość ta okazuje się być najbardziej czuła na zakłócające wpływy „ziarnistości” soczewki, tj. faktu, że soczewka — w tym wypadku galaktyka — składa się z gwiazd i ich skupisk, których obecność na drodze promieni biegnących od różnych obrazów może przejawiać swe istnienie, zaburzając stosunek jasności obrazów dedukowany teoretycznie przy zastosowaniu uśrednionego potencjału modelującego galaktykę.
Opóźnienia czasowe z kolei biorą się stąd, iż drogi geometryczne
promieni świetlnych od różnych obrazów mają różną długość, a także stąd,
że owe promienie przechodzą przez soczewkę w miejscach o różnym
potencjale grawitacyjnym.5
Względną skalę zjawiska wyznacza rozkład masy soczewki i geometria układu, natomiast skalę bezwzględną wprowadza odwrotność stałej Hubble'a H0–1.
Zatem, jak zauważył w roku 1964 szwedzki astronom Sjur
Refsdal, posiadając wiarygodny model soczewki (np. dopasowany do
obserwacji położeń obrazów) i obserwując opóźnienia czasowe (gdy źródło
wykazuje wewnętrzną zmienność jasności), można w sposób alternatywny
wyznaczyć stałą Hubble'a. Atrakcyjność tej metody polega na tym, że — w
odróżnieniu od klasycznych metod pomiaru H0 — nie
zależy ona od kalibracji kosmicznych skali odległości. Obserwacyjnie
sprowadza się ona do astrometrii obrazów (co potrafimy dość dobrze) oraz
pomiaru opóźnień czasowych. To ostatnie nie jest już tak trywialne,
bowiem nie każde źródło wykazuje odpowiednią zmienność jasności. Poza
tym, dla dokładnego wyznaczenia opóźnień czasowych konieczne jest gęste
próbkowanie krzywych zmian blasku obrazów, w możliwie nieprzerwanych
sesjach obserwacyjnych. A to jest czasochłonne.6
Byłaby to metoda idealna, gdyby nie wpływ całkowitego rozkładu mas na
drodze fotonu (czyli tła, przedpola i ziarnistości wewnątrz soczewki),
powodujący zmienną wielkość opóźnień czasowych.
Wartości stałej Hubble'a, wyznaczanej tą metodą, były typowo dość niskie od 46 do 65 km s–1 Mpc–1, przez co znajdowały się w konflikcie z „obowiązującą” wartością 72 km s–1 Mpc–1, wyznaczoną przez HST. Ostatnie zastosowania metody opóźnień na próbce jedenastu silnych soczewek grawitacyjnych dały już wynik zgodny z HST (71 km s–1 Mpc–1).
Krótka historia odkryć
Impetu dla rozwoju dziedziny dostarczyły odkrycia pierwszych soczewek grawitacyjnych. W roku 1978 Walsh, Carswell i Weymann odkryli pierwszą optyczną soczewkę grawitacyjną. Był to „podwójny” kwazar QSO 0957+561A, B, źródło o dwóch obrazach A i B odległych o 6'', posiadających identyczne widma, o takich samych stosunkach jasności w świetle widzialnym i w zakresie radiowym, z obecnością leżącej pośrodku galaktyki przedpola (soczewki), zaś kropkę nad i postawiły wyniki obserwacji VLBI, pokazujące identyczną morfologię obrazów. W 10 lat później Hewitt i wsp. (1987) odkryli za pomocą fal radiowych pierwszy pierścień Einsteina. W tym samym roku odkryto również gigantyczne łuki wokół gromad galaktyk A370 i Cl 2244. Ponadto Bohdan Paczyński postawił tezę, jakoby były to obrazy odległych galaktyk tła, soczewkowanych przez owe gromady. Propozycja ta została wkrótce potwierdzona tuż po zmierzeniu przesunięć ku czerwieni łuków, które okazały się większe niż przesunięcia ku czerwieni gromad.
W ostatnim półwieczu teoria soczewek grawitacyjnych była przedmiotem intensywnych badań teoretycznych i stała się nawet polem zastosowania awangardowych teorii matematycznych, takich jak teoria katastrof, czy teoria Morse'a. Jest to piękny przykład jak, wydawałoby się abstrakcyjne i odległe od zastosowań praktycznych, konstrukcje matematyczne przejawiają się w strukturze obserwowanego świata.
Pierwszy etap budowania katalogu soczewek grawitacyjnych polegał na
dokonywaniu przeglądów populacji potencjalnych źródeł (w tym wypadku
kwazarów). W poszukiwaniach skupiano uwagę na blisko położonych
konfiguracjach kwazarów z nadzieją, że odnajdzie się w nich podwójne lub
nawet wielokrotne obrazy powstałe w wyniku soczewkowania. Dynamika
odkryć dokonanych tą techniką nie jest specjalnie imponująca, choć
zauważalna: od odkrycia pierwszej soczewki optycznej (1978) do ok. 1992 r. znano 11 układów silnie soczewkujących, natomiast w roku 2006 było ich około 70, a w chwili obecnej baza danych projektu CASTLES7
zawiera ponad 100 soczewek optycznych odkrytych tą metodą.
Alternatywą jest skupienie uwagi na populacji potencjalnych soczewek.
Większość dotychczas odkrytych silnych soczewek to masywne galaktyki eliptyczne.8
Toczący się od kilku lat przegląd SLACS9
bazuje właśnie na tej
technice. W bazie danych spektroskopowych przeglądu SDSS
poszukuje się galaktyk eliptycznych, w których widmach przejawiają się
linie emisyjne odpowiadające większemu przesunięciu ku czerwieni, niż ma
badana galaktyka. Jeśli znajdzie się co najmniej trzy takie
linie, odpowiadające temu samemu (większemu) przesunięciu ku czerwieni,
galaktyka staje się kandydatem do miana układu soczewkującego. Następnie
obraz galaktyki poddaje się obróbce cyfrowej, odejmując (typowy dla
galaktyk eliptycznych) profil jasności de Vaucouleursa. Gdy procedura ta
uwidoczni (wcześniej „ukryte” w świetle gwiazd soczewki) wielokrotne
obrazy źródła, potwierdza się odkrycie soczewki. Technika przeglądu
SLACS jest bardzo obiecująca: od roku 2006 do chwili obecnej odkryto w
ten sposób już 55 silnych soczewek. Ponadto z samej konstrukcji
przeglądu otrzymujemy od razu dane spektroskopowe o nieocenionej
wartości: nie tylko przesunięcia ku czerwieni soczewki i źródła, lecz
także centralne dyspersje prędkości soczewki, umożliwiające wiarygodne
ich modelowanie. Jedyną wadą przeglądu SLACS jest to, że w odróżnieniu
do przeglądów kwazarów próbkuje on jedynie umiarkowane przesunięcia ku
czerwieni (nie przekraczające z = 1).
Wyzwania współczesnej kosmologii
Kosmologia wkroczyła obecnie w stadium precyzyjnych pomiarów
podstawowych parametrów identyfikujących właściwy teoretyczny model
obserwowanego Wszechświata. Gdy w latach 70. powstawała kosmologia obserwacyjna, istniejące wówczas możliwości obserwacyjne definiowały10
jej
cel jako „wyznaczenie dwóch liczb H0 i q0”,
czyli tempa ekspansji i parametru spowalniania (deceleracji). Obecnie, w
momencie gdy zostały one rozszerzone o precyzyjne obserwacje
(anizotropii) promieniowania mikrofalowego tła (np. eksperymenty COBE, Boomerang, Maxima, WMAP czy niedawno rozpoczęta misja PLANCK), badanie rozkładu struktury wielkoskalowej (opierając się na głębokich przeglądach galaktyk: CfA, las Campanas, 2dFRGS, SDSS), oznaczenia zawartości pierwiastków lekkich (2D, 3He, 4He, 7Li) we Wszechświecie, naszą wiedzę o fizyce i ewolucji Wszechświata opisuje już ok. 20 parametrów oszacowanych z dużą dokładnością, np. w eksperymencie WMAP. W szczególności z dokładnością ok. 2% (WMAP) — wiadomo, że Wszechświat jest przestrzennie płaski (tzn. ?tot = 1,02±0,02).11
Problem ciemnej materii, sygnalizowany już w latach 30. przez Oorta i Zwicky'ego urósł do rangi prawdziwego problemu w połowie lat 70. XX w., tuż po odkryciu płaskich krzywych rotacji galaktyk spiralnych.
Obserwacje promieniowania X w gromadach galaktyk, badania dynamiki
galaktyk eliptycznych oraz oszacowania mas galaktyk soczewkujących
grawitacyjnie potwierdzają wynik, iż masy galaktyk i gromad znacznie
przekraczają budżet masy składowych świecących (w całym zakresie widma
elektromagnetycznego), tzn. gwiazd, gazu i pyłu. Kosmologowie dość
wcześnie zdali też sobie sprawę z tego, że ciemna materia jest potrzebna
w roli zaczątków struktury wielkoskalowej Wszechświata. Ustalony
niezależnymi metodami całkowity budżet materii daje w przybliżeniu ?m = 0,27. Z drugiej strony, modele numeryczne nukleosyntezy pierwotnej
dają wyniki zgodne z obserwowaną zawartością pierwiastków lekkich —
przy założeniu, że gęstość zwykłej znanej nam materii (tzw. barionowej) nie przekracza 0,05 gęstości krytycznej (?b = 0,05). Sugeruje to, iż ciemna materia, jeśli istnieje,12
musi mieć naturę niebarionową. Okazało się również, że fizycy cząstek elementarnych, z zupełnie innych powodów, także spodziewają się istnienia niebarionowej materii (cząstek supersymetrycznych lub aksjonów).
Ten nieoczekiwany zbieg niezależnych w swej naturze inspiracji,
potwierdza realność i wagę problemu ciemnej materii dla współczesnej
nauki.
Rok 1998 przyniósł kolejny zaskakujący wynik — i to w zakresie jednej z fundamentalnych przez 40 lat „dwóch liczb” (q0). Mianowicie: wyniki obserwacji supernowych typu Ia, uważanych za świece standardowe, dostarczyły silnego dowodu dla przyspieszającej ekspansji Wszechświata. Zdziwienie tym rezultatem wynika stąd, że Wszechświat wypełniony znaną nam materią oraz promieniowaniem, których gęstości energii oraz ciśnienia są nieujemne, powinien zwalniać tempo swej ekspansji. Właśnie z tego powodu parametr „q0” nazwano parametrem spowalniania.
W świetle braku znanej przyczyny tego zjawiska, dominująca część
zawartości Wszechświata odpowiedzialna za owo przyspieszenie bywa
nazywana „ciemną energią”.13
Zatem ok. 70%
materii (energii) we Wszechświecie przypada na nieznaną składową, co
stanowi ogromne wyzwanie nie tylko dla kosmologii, lecz i dla całej
współczesnej fizyki teoretycznej. Z tego powodu testowanie obserwacyjne
różnych modeli teoretycznych, tłumaczących fenomen „ciemnej energii”,
jest jednym z najistotniejszych kierunków współczesnej kosmologii.
Najprostszym fizycznym modelem tłumaczącym efekt przyspieszającej ekspansji jest jednorodny i izotropowy model z ciemną materią i stałą kosmologiczną. Skrótowo bywa on także nazywany modelem ?CDM (ang. ?-Cold Dark Matter). Ten najprostszy model pasuje dobrze do niezależnych danych, takich jak: widmo mocy wielkoskalowej struktury Wszechświata, diagram Hubble'a (zależność m(z)) dla supernowych typu Ia, statystyki soczewkowania grawitacyjnego, czy anizotropia promieniowania mikrofalowego tła. Z teoretycznego punktu widzenia pojawiają się pytania dotyczące natury stałej kosmologicznej ?. Po pierwsze, jeżeli stała kosmologiczna odzwierciedlałaby kwantowo-mechaniczną energię próżni, to obliczenia prowadzone na gruncie kwantowej teorii pola sugerują jej wartość o 55 rzędów wielkości większą niż sugerowana przez argumenty natury kosmologicznej. Po drugie, pojawia się pytanie „dlaczego akurat teraz?” Istotą tego problemu jest fakt, iż aby galaktyki i ich gromady mogły powstać, proces ich formowania musiał rozpocząć się w epoce dominacji materii. Trudny do naturalnego wyjaśnienia jest powód, dla którego przejęcie dominującej dynamicznie roli przez stałą kosmologiczną miałoby nastąpić w niezbyt odległej (w kosmologicznych skalach czasu) przeszłości. Problem ten znany jest jako problem koincydencji (ang. fine tuning problem).
Wraz z powstaniem w latach 80. scenariuszy inflacyjnych uwaga teoretyków zwróciła się w kierunku badania roli pól skalarnych
w kosmologii. W kontekście alternatywy dla stałej kosmologicznej jako
przyczyny przyspieszającej ekspansji Wszechświata pojawiły się zatem
pola skalarne. Pole skalarne występujące w roli ciemnej energii określa
się mianem kwintesencji. Fenomenologicznie, kwintesencja opisywana jest jako hipotetyczny fluid kosmiczny o równaniu stanu p = w?. Z równań Einsteina wynika natomiast, iż aby uzyskać efekt przyspieszającej ekspansji, musi pojawić się w < –1/3. Przypadek stałej kosmologicznej, fenomenologicznie, odpowiada sytuacji, gdy w = –1. Jeżeli poważnie traktujemy naturę fizyczną kwintesencji jako przejaw istnienia (ewoluującego w czasie) pola skalarnego ?,
nie powinniśmy widzieć powodu, dla którego współczynnik w
fenomenologicznego równania stanu miałby być stały w czasie. Należy więc
brać pod uwagę również możliwość zmiennego w czasie (a zatem będącego
funkcją przesunięcia ku czerwieni) współczynnika w równaniu stanu w = w(t) = w(z).
Ponieważ nie istnieją żadne teoretyczne przesłanki wyraźnie preferujące
konkretną postać potencjału pola skalarnego, natomiast obserwacje
testujące efekt przyspieszającej ekspansji Wszechświata dotyczą małych i
umiarkowanych przesunięć ku czerwieni, dokonuje się rozwinięcia funkcji
w(z) w szereg Taylora, poprzestając na wyrazie liniowym.14
Inne, bardziej egzotyczne podejścia, to przyjęcie tzw. gazu Czapłygina lub modele Wszechświata z wyższymi wymiarami.

Nawet z powyższego, skrótowego opisu widać, iż brak jest klarownej sugestii ze strony teorii odnośnie do tego, gdzie należy upatrywać wyjaśnienia fenomenu przyspieszającej ekspansji Wszechświata. W tej sytuacji jeszcze większej wagi (nie tylko dla kosmologii, lecz również dla fizyki teoretycznej) nabierają testy kosmologiczne. Generalnym problemem wszystkich testów kosmologicznych są efekty systematyczne oraz fakt, że parametry modelu kosmologicznego (a równanie stanu ciemnej energii w szczególności) nie są bezpośrednio testowalne, lecz przejawiają się one w sposób uwikłany poprzez tempo ekspansji Wszechświata (funkcję Hubble'a H(z)). Dlatego ważne jest analizowanie modeli kosmologicznych przez pryzmat różnych (często uzupełniających się, jeśli chodzi o czułość i tzw. degenerację ze względu na parametry) testów kosmologicznych, a soczewki grawitacyjne mogą dostarczyć nowej klasy takich alternatywnych testów.
Jak powiedziano wcześniej, spośród licznych szczegółowych i ważnych problemów współczesnej kosmologii fizycznej, dwa generalne problemy zasługują na szczególną uwagę i będą się znajdować w centrum zainteresowania przez najbliższe dekady. Są to (hasłowo ujmując) problem ciemnej materii i problem ciemnej energii, a ten ostatni na obecnym etapie wiedzy sprowadza się do wyznaczenia efektywnego równania stanu (parametru w) oraz detekcji jego ewentualnej dynamiki czasowej.
Problem ciemnej materii — rekonstrukcja rozkładu masy
W kontekście modeli powstawania struktury wielkoskalowej Wszechświata, najpopularniejszy jest obecnie model ?CDM. Wykonywane w ramach tego modelu numeryczne symulacje struktury wielkoskalowej, której zaczątkami miałyby być zagęszczenia zimnej ciemnej materii, wciągające w swe studnie potencjału zwykłą materię barionową, a w efekcie przejawiające się jako ciemne halo powstałych potem galaktyk, pokazują znacznie większe bogactwo struktury od tego, jakie widzimy w obserwacjach. Scenariusz ten przewiduje, że masywne galaktyki powinny być bogato otoczone mniej masywnymi koncentracjami ciemnej materii. Częściowo w ten sposób tłumaczy się występowanie satelitarnych galaktyk karłowatych w pobliżu dużych galaktyk, jest ich jednak zbyt mało w porównaniu z przewidywaniami modelu. Czy zatem brakująca część przewidywanych teoretycznie drobnoskalowych skupisk składa się wyłącznie z ciemnej materii? Jak się wydaje, silne soczewki grawitacyjne mogą rzucić nowe światło na ten problem. Znane są mianowicie przykłady silnych soczewek o anomalnych stosunkach jasności obrazów. Otóż, przy zadanym profilu gęstości soczewki i konfiguracji elementów układu optycznego, teoria soczewek grawitacyjnych określa precyzyjnie nie tylko położenia obrazów, lecz także to, które z nich i w jakim stopniu powinny być wzmocnione. Natomiast w kilku silnych soczewkach stosunki jasności pewnych obrazów wyraźnie odbiegają od przewidywań (najlepiej dopasowanego do położeń obrazów) modelu soczewki. W ten sposób mogą się przejawiać drobnoskalowe skupiska masy (gromady kuliste lub aglomeraty złożone wyłącznie z ciemnej materii). Gdy obecnie trwające (np. SLACS) oraz planowane, przyszłe przeglądy silnych soczewek dostarczą już bogatej statystycznie próbki, łączne analizy położeń obrazów, ich jasności i opóźnień czasowych stworzą unikalną metodę testowania „ziarnistości” soczewek w niedostępnych obecnie skalach mas.
Model powstawania struktury w oparciu o ciemną materię przewiduje ponadto uniwersalny profil gęstości ciemnego halo, tzw. profil Navarro-Frenka-White'a. W obszarach centralnych różni się on wyraźnie od profilu izotermicznego, który, jak na razie, jest najlepiej pasującym do obserwacji silnych soczewek grawitacyjnych. Przeglądy typu SLACS, których nieodłączną składową są obserwacje spektroskopowe (dające informację o centralnych dyspersjach prędkości w soczewkach), będą przełomowe dla badań profilu gęstości, a więc i dla testowania modeli formacji struktur we Wszechświecie.
Problem ciemnej energii — kosmografia
Wyznaczanie parametrów modelu kosmologicznego, takich jak parametry gęstości różnych składników materialnych Wszechświata, czy wyznaczanie efektywnego równania stanu (parametru w opisanego wyżej) bywa określane mianem kosmografii. Dotychczas stosowano tu metody statystyczne polegające na porównywaniu teoretycznie wyznaczonych częstości występowania wielokrotnych obrazów kwazarów w różnych scenariuszach kosmologicznych, ze statystyką silnie soczewkowanych obrazów w przeglądach optycznych lub radiowych. Podejście to zależy silnie od poczynionych założeń odnośnie do ewolucji źródeł i efektów selekcji leżących u podstaw katalogów. Ponieważ, jak to omówiliśmy wcześniej, wczesne katalogi soczewek były budowane na podstawie przeglądów kwazarów, czynione tu założenia wnoszą sporą niepewność.
Przeglądy nowej generacji (jak SLACS) posiadają już dobrze zdefiniowaną funkcję selekcji — prawdopodobieństwo wystąpienia galaktyki w roli soczewki jest proporcjonalne do czwartej potęgi centralnej dyspersji prędkości (por. wzory na przekrój czynny i promień Einsteina w modelu SIS). Poprzez sparowanie i porównanie własności odkrytych galaktyk-soczewek z analogicznymi galaktykami eliptycznymi nie będącymi elementem silnie soczewkującego układu, można zatem odpowiedzieć na pytanie, czy populacja soczewek odkrywanych przez SLACS jest reprezentatywna dla ogólnej populacji galaktyk eliptycznych. Wyniki opublikowane przez zespół SLACS pokazują, że tak.
Wraz z rosnącą liczbą silnie soczewkowanych układów o dobrze zbadanych własnościach galaktyk soczewkujących (tzn. zmierzonych spektroskopowo centralnych dyspersjach prędkości) zaczyna nabierać znaczenia wykorzystanie tych obiektów do testów kosmologicznych. W jednej z prac Autora była badana możliwość wykorzystania silnych soczewek grawitacyjnych w celu uzyskiwania ograniczeń na równanie stanu ciemnej energii w modelu kosmologicznym. W charakterze przykładu wykorzystano tam soczewkę HST 14176+5226 w celu konfrontacji jej znanych (obserwacyjnie) parametrów z różnymi scenariuszami kosmologicznymi.Zastosowana metoda wykorzystuje funkcyjną zależność promienia Einsteina od (efektywnej) dyspersji prędkości w galaktyce soczewkującej oraz od kombinacji wzajemnych odległości źródła, soczewki i obserwatora. Ponieważ ta ostatnia wielkość wymaga założenia konkretnego modelu kosmologicznego, można ją stosować w roli testu różnych modeli kosmologicznych.
Rozszerzenie tego pomysłu na bogatszą statystycznie próbkę silnych soczewek jest tematem toczącego się projektu (grantu MNiSzW), realizowanego przez Autora wspólnie z Aleksandrą Piórkowską i Beatą Malec (Uniwersytet Śląski). Na próbce 20 soczewek, z których 15 pochodzi z przeglądu SLACS, a 5 z przeglądu CASTLES, były prowadzone badania różnych modeli kosmologicznych. W szczególności, opierając się na silnie soczewkowanych układach, wyznaczono parametry modeli kosmologicznych z kwintesencją i ewoluującym polem skalarnym. Ich wartości są zbliżone do wyników uzyskanych innymi metodami (np. na próbkach supernowych Ia). Teoretyczno-informacyjne metody selekcji modeli sugerują, iż model z ewoluującym polem skalarnym wydaje się być preferowany przez dane z silnych soczewek. W świetle małej liczebności próbki, wynik ten należy traktować przede wszystkim jako dowód tego, iż metoda działa, oraz jako zachętę dla dalszego jej rozwijania. Metoda zaproponowana w projekcie jest niezależna od wartości stałej Hubble'a, nie jest także czuła na inne czynniki, takie jak efekt absorpcji promieniowania przez pył międzygwiazdowy i międzygalaktyczny (zarówno w obrębie soczewki, jak i na drodze do obserwatora) czy efekt ewolucji źródeł. W większości innych podejść efekty te są nieuniknione i stanowią źródło błędów systematycznych o słabo poznanej wielkości. Bardzo obiecujące wydaje się wykonanie łącznej analizy ograniczeń dostarczonych przez silnie soczewkujące układy wraz z ograniczeniami pochodzącymi z diagramu Hubble'a supernowych Ia i pików akustycznych w widmie anizotropii promieniowania mikrofalowego tła (CMBR). Wynika to z faktu, że obszary przestrzeni parametrów ograniczane tymi technikami posiadają różny kształt i orientację. Zatem ich część wspólna powinna być silniej restryktywna niż ograniczenia uzyskiwane oddzielnie.
Zakończenie
W przeciągu ponad trzydziestu lat, od odkrycia pierwszej soczewki grawitacyjnej, teoria soczewek grawitacyjnych stała się dziedziną bogato eksploatowaną zarówno w kontekście kosmologicznym, jak i w kontekście badania struktury galaktyk (profili rozkładu ciemnej materii w halo). Duży wkład w rozwój tej dziedziny wniosła polska szkoła badania soczewek grawitacyjnych zapoczątkowana przez przełomowe teoretyczne prace Bohdana Paczyńskiego. Najbardziej znanym sukcesem polskiej szkoły są wyniki eksperymentu OGLE, koordynowanego od lat przez Andrzeja Udalskiego, które doprowadziły m.in. do wykrycia wielu pozasłonecznych układów planetarnych metodą mikrosoczewkowania gwiazd naszej Galaktyki. Chociaż wątek ten jest obecnie odległy od kosmologii, warto przypomnieć, że oryginalny pomysł Paczyńskiego, dotyczący mikrosoczewkowania, posiadał wyraźny kontekst kosmologiczny związany z problemem ciemnej materii. Zmierzał on mianowicie do oszacowania tego, jak duża część ciemnego halo Galaktyki przypada na zwarte ciemne obiekty masywne (tzw. MACHO).
Ocenia się, że w ciągu następnej dekady liczebność katalogów silnych soczewek może sięgnąć kilku tysięcy. Kosmologiczne testy przy użyciu silnych soczewek grawitacyjnych staną się wówczas bardzo silnym wzmocnieniem podejść klasycznych. Śmiało można zatem powiedzieć, że silne soczewki grawitacyjne staną się w przyszłości nieocenionym narzędziem kosmologii i astrofizyki pozagalaktycznej.
- Krzywe geodezyjne można rozumieć jako linie o ekstremalnej długości łączące dwa punkty w zakrzywionej przestrzeni. W ten sposób geodetyki uogólniają pojęcie linii prostej do dowolnej (nieeuklidesowej) geometrii.
- Osiowa symetria odnosi się do zrzutowanego na sferę niebieską dwuwymiarowego rozkładu masy; rozkład masy soczewki jest wówczas sferycznie symetryczny.
- Czyli odróżnić od przypadkowych efektów — różnic kształtu własnego galaktyk oraz efektu rzutowania na sferę niebieską.
- A także jego proste uogólnienie, tzw. osobliwa izotermiczna elipsoida (SIE).
- Zjawisko opóźnienia sygnału w polu grawitacyjnym, znane jako efekt Shapiro, jest jedną z konsekwencji OTW. Ma ono podobną naturę jak zjawisko grawitacyjnego przesunięcia ku czerwieni.
- Jedne z najdłuższych opóźnień czasowych wynoszące 822 dni zmierzono pomiędzy obrazami C i A soczewki SDSS J1004+4112, artykuł ogłaszający ten pomiar (J. Fohlmeister i wsp. ApJ, 676, 761 2008) nosił tytuł Nagroda za cierpliwość.
- http://cfa-www.harvard.edu/castles/
- Jak pamiętamy, przekrój czynny na soczewkowanie zależy kwadratowo od promienia Einsteina, a zatem masywniejsze obiekty mają większe prawdopodobieństwo stać się soczewkami. Hierarchiczny scenariusz powstawania galaktyk zakłada, że galaktyki eliptyczne pochodzą z połączenia się mniej masywnych galaktyk spiralnych, a zatem stanowią masywniejszą populację. Niemniej jednak znane są przykłady układów, w których rolę soczewek pełnią galaktyki spiralne.
- http://www.slacs.org
- Allan Sandage, Physics Today, 23, 34, 1970.
- W kosmologii naturalną skalą gęstości materii (energii) jest tzw. gęstość krytyczna ?cr = 3H02/8?G. Wyrażone w jej jednostkach obecne gęstości różnych składowych materialnej zawartości Wszechświata (materii, promieniowania, pól skalarnych itp.) oznacza się symbolami ?i — zatem ?tot = 1 oznacza, że suma tych gęstości jest równa gęstości krytycznej.
- Jako najstarsze, alternatywne wyjaśnienie fenomenu płaskich krzywych rotacji pojawił się model zmodyfikowanej dynamiki newtonowskiej Mordehaia Milgroma, tzw. MOND. Przywołany — wydawałoby się ad hoc — model ten przewidział wiele z później odkrytych empirycznie własności fenomenologii galaktyk. Mimo wielu prób konfrontacji z obserwacjami, nie dostarczono jeszcze decydującego empirycznego dowodu jego falsyfikacji, dlatego warto o nim pamiętać. Gdyby okazał się słuszny, w postaci oryginalnej bądź — co jest bardziej prawdopodobne — jako granica ogólniejszej teorii, miałoby to zapewne daleko idące konsekwencje dla fundamentów fizyki klasycznej.
- Jest to oczywiście najprostsza możliwość, ale nie jedyna. Interesujące alternatywne podejścia za punkt wyjścia biorą fakt, iż obserwacji dokonujemy z miejsca, gdzie rozkład materii jest silnie niejednorodny, a interpretujemy je w ramach modelu uśrednionego — o jednorodnym i izotropowym rozkładzie materii. Jak w sposób spójny teoretycznie dokonywać takiego uśrednienia, pozostaje wciąż nie rozwiązanym do końca problemem OTW. Już w latach 80. XX w. George Ellis zwrócił uwagę, że proces uśredniania po niejednorodnościach może się efektywnie przejawiać jak „dodatkowy składnik” materialny. Współczesne oszacowania tego efektu sugerują jednak, że jest on zbyt słaby, aby mógł być odpowiedzialny za „fenomen przyspieszającej ekspansji”. Inne podejście to założenie od razu modelu niejednorodnego, np. Lemaitre'a?Tolmana (jest ono rozwijane m.in. przez Andrzeja Krasińskiego i Krzysztofa Bolejkę z CAMK). Pojęcie „ciemnej energii” należy więc traktować bardziej jako użyteczne hasło identyfikujące problem.
- Chociaż z jest obserwablą, to jednak prawdziwym stopniem swobody jest czynnik skali a. Zatem jeszcze popularniejsze jest rozwinięcie w szereg względem czynnika skali a — jest to tzw. parametryzacja Chevalliera-Polarskiego-Lindera.