Sphenix: geglättete Teilchenhydrodynamik für die nächste Generation von Galaxienentstehungssimulationen |Monatliche Mitteilungen der Royal Astronomical Society |Oxford Akademiker

2022-09-03 11:52:01 By : Ms. dai grace

Josh Borrow, Matthieu Schaller, Richard G. Bower, Joop Schaye, Sphenix: Smoothed Particle Hydrodynamics for the Next Generation of Galaxy Formation Simulations, Monthly Notices of the Royal Astronomical Society, Band 511, Ausgabe 2, April 2022, Seiten 2367–2389, https ://doi.org/10.1093/mnras/stab3166Smoothed Particle Hydrodynamics (SPH) ist eine allgegenwärtige numerische Methode zur Lösung von Flüssigkeitsgleichungen und wird wegen ihrer Konservierungseigenschaften, natürlichen Anpassungsfähigkeit und Einfachheit geschätzt.Wir stellen das Sphenix-SPH-Schema vor, das mit drei Hauptzielen entwickelt wurde: gut mit Sub-Grid-Physikmodulen zu arbeiten, die Energie injizieren, hochrecheneffizient zu sein (sowohl in Bezug auf Rechenleistung als auch Speicher) und Lagrange zu sein.Sphenix verwendet eine Dichte-Energie-Bewegungsgleichung zusammen mit einer variablen künstlichen Viskosität und Leitung, einschließlich Begrenzern, die für die Arbeit mit gängigen Sub-Grid-Modellen der Galaxienentstehung ausgelegt sind.Insbesondere präsentieren und testen wir einen neuartigen Begrenzer, der die Leitung über Schocks verhindert und so unerwünschte Strahlungsverluste bei Rückkopplungsereignissen verhindert.Es hat sich gezeigt, dass Sphenix viele schwierige Testprobleme für herkömmliche SPH löst, einschließlich Flüssigkeitsmischung und Wirbelbildungserhaltung, und es hat sich gezeigt, dass es in allen Tests ein konvergentes Verhalten erzeugt, wo dies angemessen ist.Entscheidend ist, dass wir innerhalb von sphenix für die verschiedenen Schalter durchgehend dieselben Parameter verwenden, um die Leistung des Schemas zu demonstrieren, wie es in Produktionssimulationen verwendet würde.Sphenix ist das neue Standardschema im Swift-Kosmologie-Simulationscode und ist als Open Source verfügbar.Im Laufe der Jahre gab es viele Ansätze zur Lösung der Bewegungsgleichungen für ein Kollisionsfluid in einem kosmologischen Kontext, von einfachen Festgitterschemata erster Ordnung (Cen 1992) bis hin zu diskontinuierlichen Galerkin-Schemata höherer Ordnung, die in einer adaptiven Umgebung gelöst werden (Guillet et Al. 2019).Da die Smoothed Particle Hydrodynamics (SPH) den optimalen Punkt zwischen Rechenaufwand, Stabilität und Adaptivität erreicht, wird sie seit fast fünf Jahrzehnten in der gesamten astronomischen Gemeinschaft eingesetzt.SPH wurde ursprünglich von Lucy (1977) und Gingold & Monaghan (1977) entwickelt und wurde anfänglich verwendet, um einzelne Sterne zu modellieren, da dieses Problem gut für Lagrange-Schemata geeignet war.Kurz darauf wurden weitere Anwendungen der Methode zur Untersuchung der Fragmentierung von Gaswolken (Wood 1981) und zur Entstehung von Planeten (Benz 1988) eingesetzt.Die praktische Verwendung von SPH in einem kosmologischen Kontext begann mit Hernquist & Katz (1989), die eine neuartige Lösung für den großen dynamischen Bereich von Zeitschritten lieferten, die erforderlich sind, um eine kosmologische Flüssigkeit zu entwickeln, und wurde durch den Gadget-2-Code (Springel 2005) veröffentlicht und weltweit genutzt, um Galaxienentstehungsprozesse erstmals in diesem Zusammenhang zu modellieren (zB Dolag et al. 2004; Ettori et al. 2006; Crain et al. 2007).Das in Gadget-2 veröffentlichte Basis-SPH-Modell war jedoch relativ einfach und bestand aus einem festen künstlichen Viskositätskoeffizienten und einem auf Monaghan (1992) basierenden Schema.Es gab verbesserte Modelle, wie die in Monaghan (1997) vorgestellten, aber der Schlüssel, der dazu führte, dass sich die Community um Gadget-2 scharte, war sowohl seine Open-Source-Natur als auch seine Skalierbarkeit, wobei Gadget-2 auf Hunderten oder Tausenden von Kernen laufen konnte .Die Popularität von Gadget-2 und ähnlichen Codes wie Benzin (Wadsley, Stadel & Quinn 2004) führte zusammen mit seinem relativ einfachen Hydrodynamikmodell zu kritischen Arbeiten wie Agertz et al.(2007) und Bauer & Springel (2012), die auf Mängel in ihrer SPH-Modellierung im Vergleich zu Mesh-basierten Codes der damaligen Zeit hinwiesen.Die SPH-Gemeinschaft als Ganzes hatte jedoch bereits Lösungen für diese Probleme (siehe zB Price 2008) und viele robuste Lösungen wurden vorgeschlagen und in kosmologische Modellierungscodes integriert.In Heß & Springel (2010) experimentierten die Autoren mit einer Erweiterung von Gadget-2 unter Verwendung eines Voronoi-Netzes, um SPH-inhärente Fehler zu reduzieren und bessere Ergebnisse bei Flüssigkeitsmischproblemen zu ermöglichen, was schließlich zu dem AREPO-Moving-Mesh-Schema führte deutlich verbesserte Genauigkeit pro Partikel, aber drastisch steigende Rechenkosten (Springel 2010; Weinberger, Springel & Pakmor 2020).In diesem Fall haben die Autoren ihre Rechenkosten pro Partikel ständig erhöht, um Fehler, die ihrem hydrodynamischen Modell innewohnen, so weit wie möglich zu reduzieren.Andere Autoren schlugen andere Richtungen ein, wobei der Benzincode (Wadsley et al. 2004; Wadsley, Veeravalli & Couchman 2008; Wadsley, Keller & Quinn 2017) sich dafür entschied, Drücke innerhalb der SPH-Bewegungsgleichung explizit zu mitteln, um die Probleme der künstlichen Oberflächenspannung zu lindern ;die PHANTOM-Entwickler (Price 2008, 2012; Price et al. 2018), die sich für künstliche Energieleitung einsetzen;und Weiterentwicklungen des Gadget-2- und aktualisierten Gadget-3-Codes von Hopkins (2013) und Hu et al.(2014), basierend auf der Arbeit von Saitoh & Makino (2013), unter Verwendung eines expliziten geglätteten Druckschemas, um ein konsistentes Druckfeld über den Kontaktdiskontinuitäten sicherzustellen, aus denen die künstliche Oberflächenspannung entsteht.Gleichzeitig wurde von (Cullen & Dehnen 2010; Read, Hayfield & Agertz 2010; Dehnen & Aly 2012; Read & Hayfield 2012) daran gearbeitet, die grundlegenden numerischen Fehler in SPH durch die Verwendung verbesserter Auswahlmöglichkeiten für die SPH zu reduzieren Kernel, von dem bis zu diesem Zeitpunkt angenommen wurde, dass er einen geringen Einfluss auf die Ergebnisse von SPH-Simulationen hat.Diese verbesserten Kernel haben typischerweise größere „Flügel“, die mehr Nachbarn umfassen und genauere Rekonstruktionen für geglättete Mengen liefern.Diese genaueren Rekonstruktionen sind besonders wichtig für die Konstruktion genauer Gradienten, die in „Schalter“ eintreten, die die Stärke der künstlichen Viskositäts- und Leitungsterme steuern.Der Aufstieg komplexerer SPH-Modelle ging mit einem deutlichen Anstieg der Komplexität der entsprechenden Galaxienentstehungsmodelle einher;Eine solche Zunahme der Komplexität war erforderlich, da die Auflösungen im Laufe der Zeit zunahmen, was bedeutet, dass mehr Physik direkt modelliert werden konnte.Viele astrophysikalische Prozesse finden auf Skalen statt, die kleiner sind als in Simulationen aufgelöst werden können, und sind in diesen sogenannten „Sub-Grid“-Modellen der Galaxienbildung enthalten.Zu diesen Prozessen gehören Strahlungskühlung, die sich von einem einfachen Ein-Parameter-Modell zu element- und sogar ionisationszustandsabhängigen Raten entwickelt hat (siehe zB Wiersma et al. 2009; Ploeckinger & Schaye 2020);Sternentstehung (siehe z. B. Cen & Ostriker 1992; Schaye & Dalla Vecchia 2008, und Referenzen darin);und stellares Feedback zum Modellieren von Supernovae und Elementausflüssen (siehe z. B. Navarro & White 1993; Springel & Hernquist 2003; Dalla Vecchia & Schaye 2008, 2012 und darin enthaltene Referenzen).Die Kopplung dieser Prozesse mit der Hydrodynamik ist komplex und wird oft übersehen;eine sorgfältige Behandlung der Erhaltungsgesetze und Eigenheiten der gewählten Variablen, die zur Darstellung der Flüssigkeit verwendet werden, kann häufig Fehler vor aller Augen verbergen (Borrow, Schaller & Bower 2020).Die Entwicklung des Swift-Codes (Schaller et al. 2016) führte zu einer Neuimplementierung des Sub-Grid-Modells, das für die EAGLE-Simulation verwendet wurde (Schaye et al. 2015), und zu einer Chance, das anarchische SPH-Schema zu überdenken wurde im ursprünglichen (Gadget-3-basierten) Code verwendet (siehe Schaller et al. 2015, für Details zum Schema).Die Ergebnisse in Oppenheimer et al.(2018; ihr Anhang D) und Borrow et al.(2020) bedeutete, dass ein Wechsel weg vom ursprünglichen Druck-Entropie-Schema hin zu einem Schema, das auf einem geglätteten Dichtefeld basiert, zusammen mit den unten skizzierten wichtigsten Designzielen bevorzugt wurde.Diese Arbeit beschreibt das Sphenix-1-Schema und demonstriert seine Leistungsfähigkeit bei vielen hydrodynamischen Tests.Wir stellen hier fest, dass Sphenix nicht die beste Leistung pro Partikel liefert (in beiden absoluten Werten der L1-Norm (siehe Abschnitt 5.1 für unsere Definition der L1-Norm) im Vergleich zur analytischen Lösung und in Bezug auf die Konvergenzgeschwindigkeit) im Vergleich zu andere Schemata.Das Moving Mesh AREPO (Springel 2010), Finite-Volume GIZMO (Hopkins 2015) und das korrigierte Schema, das in Rosswog (2020a) vorgestellt wird, werden verbesserte Ergebnisse liefern.sphenix liegt jedoch in dem sehr kostengünstigen (Speicher und Berechnung) Sweet-Spot pro Partikel, den herkömmliche SPH-Schemata einnehmen, während die Leistung mit einigen neuartigen Begrenzern für künstliche Leitung und Viskosität maximiert wird.Dies macht es zu einer ausgezeichneten Wahl für das Standard-SPH-Schema in Swift .Der Rest dieses Papiers ist wie folgt organisiert: In Abschnitt 2 beschreiben wir den schnellen kosmologischen Simulationscode und die darin enthaltenen Zeitschrittalgorithmen.In Abschnitt 3 beschreiben wir Sphenix in seiner Gesamtheit.In Abschnitt 4 beschreiben wir den künstlichen Leitungsbegrenzer, der für energetische Rückkopplungsschemata verwendet wird.Schließlich zeigen wir in Abschnitt 5, wie sich Sphenix bei verschiedenen hydrodynamischen Problemen verhält.Der Swift 2-Simulationscode (Schaller et al. 2016, 2018) ist ein hybrider paralleler SPH- und Gravitationscode, der so konzipiert ist, dass er über mehrere Rechenknoten mit dem Message Passing Interface (MPI) läuft, aber Threads auf jedem Knoten verwendet (anstelle des traditionelle Methode, einen MPI-Rang pro Kern zu verwenden).Dies ermöglicht zusammen mit seinem aufgabenbasierten Parallelitätsansatz, dem asynchronen Kommunikationsschema und dem arbeitsaufteilenden Domänenzerlegungssystem hervorragende starke und schwache Skalierungseigenschaften (Borrow et al. 2018).Swift ist außerdem so konzipiert, dass es äußerst modular ist, wobei Hydrodynamikschemata, Gravitationsschemata und Sub-Grid-Modelle leicht ausgetauscht werden können.Swift kann so konfiguriert werden, dass es eine Nachbildung des Gadget-2-Hydrodynamikschemas (Springel & Hernquist 2002), eine vereinfachte Version des grundlegenden PHANTOM-Schemas (Price et al. 2018), die in Hopkins (2015) beschriebenen MFM- und MFV-Schemata verwendet. sphenix oder eine Vielzahl anderer Schemata.Es kann auch so konfiguriert werden, dass es mehrere verschiedene Galaxienbildungs-Untergittermodelle verwendet, darunter ein sehr einfaches Schema (konstante Λ-Kühlung, keine Sternentstehung), das EAGLE-Untergittermodell (Schaye et al. 2015), ein 'Quick Lyman- α'-Modell, das GEAR-Sub-Grid-Modell (Revaz & Jablonka 2012) und einige Weiterentwicklungen, einschließlich Kühltische von Ploeckinger & Schaye (2020).Der Gravitationslöser ist austauschbar, aber der hier und in allen Swift-Simulationen verwendete verwendet die Fast-Multipole-Methode (Greengard & Rokhlin 1987) mit einem adaptiven Öffnungswinkel, ähnlich wie Dehnen (2014).Da der Zeitschritt der Partikel partikelgetragen ist, kann es bestimmte Teile der Domäne geben, die wechselwirkende Partikel mit sehr unterschiedlichen Zeitschritten enthalten (dies wird besonders durch Partikel mit unterschiedlichen Temperaturen innerhalb eines bestimmten Kerns gefördert).Die Interaktion dieser Partikel ist aus mehreren Gründen problematisch, und daher schließen wir den in Saitoh & Makino (2009) Durier & Dalla Vecchia (2012) beschriebenen Zeitschrittbegrenzer in alle unten gelösten Probleme ein.swift beschließt, benachbarte Partikel auf eine maximale Zeitschrittdifferenz von einem Faktor 4 zu begrenzen.Das Sphenix-Schema wurde entwickelt, um das in den ursprünglichen EAGLE-Simulationen verwendete Anarchie-Schema für die Verwendung im Swift-Simulationscode zu ersetzen.Dieses Schema hatte drei Hauptdesignziele:Seien Sie ein Lagrange-SPH-Schema, da dies viele Vorteile hat und mit dem EAGLE-Untergittermodell kompatibel ist.Arbeiten Sie gut mit der EAGLE-Sub-Grid-Physik, nämlich sofortiger Energieeinspeisung und Sub-Grid-Kühlung.Seien Sie sehr rechen- und speichereffizient.Die letzte Anforderung schließt die Verwendung von Riemann-Lösern in sogenannten Gizmo-ähnlichen Schemata aus (obwohl diese nicht unbedingt verbesserte Ergebnisse für astrophysikalische Problemstellungen liefern, siehe Borrow et al. 2019);siehe Anhang A. Die zweite Anforderung bedeutet auch, dass die Verwendung eines auf Druck basierenden Schemas (wie Anarchie) nicht optimal ist, siehe Borrow et al.(2020) für weitere Einzelheiten.Diese Gleichungen führen aufgrund der eingangs eingeführten Zwangsbedingung konstanter Entropie zu natürlich dissipationslosen Lösungen;Sie können keine Erschütterungen einfangen.Die Schockerfassung in SPH wird im Allgemeinen unter Verwendung von „künstlicher Viskosität“ durchgeführt.Der zuerst in Abschnitt 3 beschriebene Leitungsbegrenzer besteht aus zwei Komponenten;einen Maximalwert für den Leitungskoeffizienten in viskosen Strömungen (Gleichung 34) und einen, der dafür sorgt, dass ein Teilchen mit höherem Druck innerhalb der Leitungswechselwirkung bevorzugt wird (Gleichung 27).Dieser Begrenzer ist aufgrund von Wechselwirkungen des künstlichen Leitungsschemas mit dem Untergitter-Physikmodell notwendig.Hier wird das EAGLE-Teilgittermodell gezeigt, da Sphenix dafür entwickelt wurde, aber alle Schemata, die energetische Rückkopplung und ungelöste Abkühlzeiten verwenden, leiden unter den gleichen Problemen, wenn eine unbegrenzte künstliche Leitung verwendet wird.Kurz gesagt, wenn ein energetisches Rückkopplungsereignis stattfindet, wird der künstliche Leitungsschalter aktiviert (da dies durch Injektion von viel Energie in ein Teilchen erfolgt, was zu einem Extremwert von ∇2u führt).Dies führt dann dazu, dass vor der Stoßfront Energie aus dem Partikel entweicht, die dann abgestrahlt wird, da die benachbarten Partikel aufgrund ihrer niedrigeren Temperatur schnell abkühlen können, was zu kürzeren Abkühlzeiten führt.Um die Auswirkung dieses Problems auf ein reales System zu zeigen, haben wir ein einheitliches Volumen mit 323 Gasteilchen bei ungefähr solarer Metallizität (Z = 0,014) und Gleichgewichtstemperatur (etwa 104 K) bei einer Dichte von nH = 0,1 cm−3 aufgebaut .In das zentrale Teilchen im Volumen wird zu Beginn der Simulation ungefähr die gleiche Energiemenge injiziert wie bei einem einzelnen EAGLE-ähnlichen stellaren Rückkopplungsereignis (Erhitzen auf ~107,5 K), und der Code wird mit vollem Untergitter ausgeführt Kühlung (unter Verwendung der Tabellen von Wiersma et al. 2009) aktiviert.Die Anfangswerte für die künstlichen Viskositäts- und Leitungskoeffizienten werden auf Null gesetzt (während sie in der Praxis bei „echten“ Rückkopplungsereignissen auf ihr Maximum und Minimum gesetzt werden; dies hat eine kleine Auswirkung auf die Ergebnisse, da sich die Koeffizienten schnell stabilisieren).Abb. 1 zeigt die Energie im System (wobei die thermische Energie der „Hintergrund“-Partikel entfernt wurde, um sicherzustellen, dass ein großer dynamischer Bereich der thermischen Energie in diesem Diagramm sichtbar ist) in verschiedenen Komponenten.Wir sehen, dass es zumindest für den Fall mit angewendetem Begrenzer bei t = 0 die erwartete große Injektion von thermischer Energie gibt, die schnell teilweise in kinetische Energie umgewandelt wird, wie bei einem klassischen Druckwellenproblem (wie dem in Abb. 5; in unseren idealisierten, nichtstrahlenden Sedov-Explosionen werden nur 28 Prozent der injizierten thermischen Energie in kinetische Energie umgewandelt).Ein erheblicher Teil, etwa zwei Drittel, der Energie geht durch Strahlung verloren, aber der Schlüssel hier ist, dass die anfängliche thermische Injektion in eine kinetische Welle umgewandelt wird.Energie in verschiedenen Komponenten als Funktion der Zeit für eine simulierte Supernova-Explosion (Details zum Aufbau siehe Text).Blau zeigt Energie in der kinetischen Phase, Orange zeigt Energie in der thermischen Phase (unter Vernachlässigung der thermischen Energie des Hintergrunds) und Grün zeigt Energie, die durch Strahlung verloren geht.Die durchgezogenen Linien zeigen die Simulation, die mit dem angewendeten künstlichen Leitungsbegrenzer durchgeführt wurde, und die gestrichelten Linien zeigen die Simulation ohne einen solchen Begrenzer.Simulationen, die ohne den Begrenzer durchgeführt wurden, zeigen enorme, schnelle und Kühlverluste.In der gleichen Simulation, jetzt mit entferntem Leitungsbegrenzer (gestrichelte Linien), geht fast die gesamte injizierte Energie sofort an Strahlung verloren (dh die Rückkopplung ist unerwartet ineffizient).Die innere Energie des betroffenen Teilchens wird schnell zu seinen Nachbarn (die dann über, aber näher an der Gleichgewichtstemperatur liegen) geleitet, die eine kurze Abkühlzeit haben, und daher geht die Energie schnell verloren.Die direkte Wirkung des Leitungsbegrenzers ist in Abb. 2 dargestellt, wo das gleiche Problem wie oben zehnmal mit maximalen künstlichen Leitungskoeffizienten αD, max von 0–2,5 in Schritten von 0,1 wiederholt wird (beachten Sie, dass der verwendete Wert von αD, max in Produktionssimulationen ist 1).Wir haben uns entschieden, diese Extremwerte darzustellen, um die Wirksamkeit des Begrenzers auch in Extremszenarien zu demonstrieren.Die Simulationen mit und ohne Begrenzer zeigen das gleiche Ergebnis bei αD, max = 0 (dh mit deaktivierter Leitung), aber diejenigen ohne Begrenzer zeigen einen schnell zunehmenden Anteil der durch Kühlung verlorenen Energie, wenn der maximale Leitungskoeffizient zunimmt.Die Simulationen mit dem Begrenzer zeigen einen stabilen Energieanteil (zu diesem festgelegten Zeitpunkt von t = 25 Myr) in jeder Komponente, was zeigt, dass der Begrenzer wie erwartet arbeitet und diese numerischen Strahlungsverluste begrenzt.Dieses Ergebnis ist qualitativ unverändert für ein um den Faktor 100 höheres oder niedrigeres Hintergrundgas (dh Gas zwischen nH = 0,001 cm–3 und nH = 10,0 cm–3).In beiden Fällen kann die Leitung schnell zu numerischen Strahlungsverlusten führen, aber mit aktiviertem Begrenzer wird dies vollständig behoben.Wir bemerken auch, dass der Begrenzer auch bei extremen Werten des Überleitungsparameters (z. B. mit αD, max = 100) wirksam bleibt und für diesen Test das gleiche Ergebnis liefert wie im Fall ohne künstliche Überleitung.Der Aufbau aus Fig. 1 wurde für unterschiedliche Werte für den maximalen künstlichen Leitungskoeffizienten αD,max (dh eine andere horizontale Achse als Fig. 1, mit derselben vertikalen Achse) durchgeführt und zeigt nun die Energiekomponenten in jeder Phase bei a feste Zeit von t = 25 Myr.Farben und Linienstile sind die gleichen wie in Abb. 1. Diese Abbildung zeigt nicht nur das Problem mit einer unbegrenzten Leitung, sondern auch, dass der Leitungsbegrenzer den Verlust zusätzlicher Energie im Vergleich zu einer ohne künstliche Leitung durchgeführten Simulation verhindert.In diesem Abschnitt wird die Leistungsfähigkeit von Sphenix bei hydrodynamischen Tests gezeigt, darunter das Stoßrohr von Sod (1978), die Druckwelle von Sedov (1959) und der Vortex von Gresho & Sani (1990), zusammen mit vielen anderen Problemen, die für die Galaxienbildung relevant sind.Alle Aufgaben werden ausschließlich im hydrodynamischen Modus durchgeführt, ohne Strahlungskühlung oder andere zusätzliche Physik, und alle verwenden eine γ = 5/3-Zustandsgleichung (⁠|$P = (2/3) u_i \hat{\rho } $|⁠ ).Entscheidend ist, dass alle Tests mit den gleichen Schemaparametern und Einstellungen durchgeführt wurden, was bedeutet, dass alle Schalter konsistent sind (sogar zwischen Selbstgravitations- und reinen hydrodynamischen Tests), sofern nicht anders angegeben.Dies weicht von den meisten Studien ab, in denen Parameter für jedes Problem unabhängig festgelegt werden, um zu versuchen, die maximale Leistung des Schemas für einen bestimmten Test zu demonstrieren.Die verwendeten Parameter sind wie folgt:CFL-Bedingung CCFL = 0,2, mit aktiviertem Multiple Time-Stepping (siehe zB Lattanzio et al. 1986).Viskosität alpha 0,0 ≤ αV ≤ 2,0 mit Ausgangswert αV = 0,1 (ähnlich Cullen & Dehnen 2010).Viskosität beta βV = 3,0 und Länge ℓV = 0,05 (ähnlich Cullen & Dehnen 2010).Leitungs-Alpha 0,0 ≤ αD ≤ 1,0 (eine Wahl, die mit Price 2008 übereinstimmt) mit aktiviertem viskositätsbasiertem Leitungsbegrenzer und derselben funktionalen Form für die Leitungsgeschwindigkeit (Gleichung 26), die in allen Simulationen verwendet wird.Leitungs-Beta βD = 1,0 mit dem Anfangswert von αD = 0,0.Diese Entscheidungen wurden alle "kalibriert", um ein akzeptables Ergebnis auf dem Sod-Stoßdämpferrohr zu erzielen, und dann unverändert gelassen, wobei die Ergebnisse der restlichen Tests ungesehen blieben.Wir haben uns entschieden, die Tests auf diese Weise zu präsentieren, um einen repräsentativen Überblick über die Leistung von Sphenix unter realen Bedingungen zu geben, da es in erster Linie für den praktischen Einsatz in zukünftigen Galaxienbildungssimulationen konzipiert ist.Der zur Erstellung der Anfangsbedingungen erforderliche Quellcode (oder ein Link zum Herunterladen der Anfangsbedingungen selbst, falls dies nicht praktikabel ist) ist als Open Source im Swift-Repository verfügbar.Das Stoßrohr von Sod (1978) ist ein klassisches Riemann-Problem, das häufig zum Testen von Hydrodynamikcodes verwendet wird.Die Röhre besteht in der endgültigen Lösung aus drei Hauptabschnitten: der Verdünnungswelle (zwischen 0,7 < x < 1,0), der Kontaktdiskontinuität (an Position x ≈ 1,2) und einem schwachen Schock (an Position x ≈ 1,4) zu der Zeit dass wir es in Abb. 3 zeigen.Einzelne Größen aufgetragen gegen die Analyselösung (lila gestrichelte Linie) für das Sod-Stoßrohr in 3D.Die horizontale Achse zeigt die x-Position der Partikel.Alle Partikel sind blau dargestellt, wobei die violette Schattierung im Hintergrund die für die Konvergenz betrachteten Regionen zeigt (Abb. 4) mit Verdünnungswelle, Kontaktunterbrechung und Schock, dargestellt von links nach rechts.Alle Tafeln werden zur gleichen Zeit t = 0,2 und für die gleiche Auflösungsstufe gezeigt, wobei die 643- und 1283-Anfangsbedingungen für x < 1 bzw. x > 1 verwendet werden.Die Ausgangsbedingungen für das Sod-Stoßrohr verwenden kubisch raumzentrierte Gitter, um im Ausgangszustand maximal symmetrische Seitenkräfte zu gewährleisten.Zwei Gitter mit gleicher Teilchenmasse, eines mit einer um den Faktor 8 höheren Dichte (z. B. eines mit 323 Teilchen und eines mit 643 Teilchen) werden bei x = 1,0 angebracht.5 Dies bildet eine Diskontinuität, wobei das Gitter höherer Dichte mit ρL = 1 links und das Gitter niedrigerer Dichte mit ρR = 1/8 rechts angeordnet ist.Die Geschwindigkeiten werden anfänglich für alle Partikel auf Null und die Drücke auf PL = 1 und PR = 0,1 gesetzt.Abb. 3 zeigt das Stoßrohr bei t = 1, aufgetragen gegen die analytische Lösung.Diese Abbildung zeigt das Ergebnis der Anfangsbedingung 643 und 1283.Im Allgemeinen zeigen die Simulationsdaten (blaue Punkte) eine sehr gute Übereinstimmung mit der analytischen Lösung (lila gestrichelte Linie).Die drei violetten Bänder entsprechen drei unterschiedlichen Regionen innerhalb des Schockrohrs.Ganz links ist die Verdünnungswelle, eine adiabatisch expandierende Flüssigkeit.Das Band deckt den Wendepunkt der Welle ab, da hier die größte Abweichung von der analytischen Lösung vorliegt.Es gibt eine leichte Überschätzung der Dichte an diesem Umsatzpunkt, hauptsächlich aufgrund der symmetrischen Natur des SPH-Kerns.Das nächste Band zeigt die Kontaktunterbrechung.Es wird kein Versuch unternommen, diese Diskontinuität in den Anfangsbedingungen zu unterdrücken (dh sie sind nicht entspannt).Es gibt einen kleinen Druckfleck von ähnlicher Größe wie bei Schemata, die Riemann-Löser verwenden, wie z. B. GIZMO (Hopkins 2015).Es gibt keine große Geschwindigkeitsdiskontinuität, die mit dieser Druckspitze verbunden ist, wie es bei SPH-Schemata zu sehen ist, die die Kontaktdiskontinuität nicht explizit behandeln (beachten Sie, dass jedes in der Simulation vorhandene Partikel hier gezeigt wird) mit irgendeiner Form von Leitung, einem geglätteten Druckfeld oder andere Methode.Aufgrund der starken Diskontinuität der inneren Energie, die in diesem Bereich vorhanden ist, erreicht der künstliche Leitungskoeffizient &agr;D einen Spitzenwert, was es ermöglicht, dass der Druck-"Blip" auf einen mit einem linearen Gradienten reduziert wird.Der letzte Abschnitt des Systems, die Region ganz rechts, ist der Schock.Dieser Schock wird durch das Schema gut eingefangen.Es gibt eine kleine Aktivierung des Leitungskoeffizienten in dieser Region, was vorteilhaft ist, da es hilft, die Schockfront zu stabilisieren (Hu et al. 2014).Dies zeigt, dass der Überleitungsbegrenzer (Abschnitt 4) diese vorteilhafte Eigenschaft der künstlichen Überleitung innerhalb dieser häufig vorhandenen schwachen (was zu αV ≲ 1,0 führt) Schocks nicht eliminiert.Abb. 4 zeigt die Konvergenzeigenschaften des Sphenix-Schemas für dieses Problem, wobei in diesem Fall das Druckfeld als Konvergenzvariable verwendet wird.Im Vergleich zu einem Schema ohne künstliche Leitung (gestrichelte Linien) zeigt das Sphenix-Schema eine signifikant verbesserte Konvergenz und eine niedrigere Norm in der Kontaktdiskontinuität, ohne Genauigkeit in anderen Regionen zu opfern.Druckkonvergenz für die drei Regionen in Abb. 3. Die durchgezogenen Linien zeigen Anpassungen an die Daten bei verschiedenen Auflösungsniveaus (Punkten) für jede Region, wobei die gepunkteten Linien die Konvergenzgeschwindigkeit zeigen, wenn der künstliche Leitungsterm entfernt wird.Die gestrichelte graue Linie zeigt die erwartete Konvergenzgeschwindigkeit für Schocks in SPH-Simulationen, um das Auge zu führen, mit einer Abhängigkeit von L1 ∝ h.Die Sedov-Taylor-Druckwelle (Sedov-Explosion; Taylor 1950; Sedov 1959) folgt der Entwicklung einer starken Schockfront durch ein anfänglich isotropes Medium.Dies ist ein äußerst relevanter Test für kosmologische Simulationen, da dies den Implementierungen ähnelt, die für Sub-Grid-Feedback (unterhalb der Auflösungsskala) von Sternen und Schwarzen Löchern verwendet werden.In SPH-Schemata testet dies effektiv das Schema der künstlichen Viskosität auf Energieeinsparung;Wenn das Schema keine Energie spart, wird die Stoßfront verlegt.Hier verwenden wir eine Glasfeile, die erzeugt wird, indem wir einem gleichmäßigen Partikelgitter erlauben, sich in einen Zustand zu begeben, in dem sich die kinetische Energie stabilisiert hat.Die Teilcheneigenschaften werden dann zunächst so eingestellt, dass sie ein Gas mit adiabatischem Index γ = 5/3, einem gleichmäßigen Druck von P0 = 10−6, Dichte ρ0 = 1, alles in einem 3D-Kasten der Seitenlänge 1 darstellen. Dann die n = 15 Teilchen, die der Mitte des Kästchens am nächsten sind, werden mit der Energie E0 = 1/n injiziert.Dies entspricht ungefähr einem Temperatursprung um den Faktor ∼105 gegenüber dem Hintergrundmedium.Abb. 5 zeigt die Partikeleigenschaften der höchstauflösenden Anfangsbedingung (1283) bei t = 0,1 gegen die analytische Lösung.Das Sphenix-Schema stimmt in allen Teilchenfeldern gut mit der analytischen Lösung überein, wobei die einzige Abweichung (abgesehen von der geglätteten Schockfront, eine unvermeidliche Folge der Verwendung eines SPH-Schemas) ein leichter Anstieg des Drucks im zentralen Bereich (aufgrund einer kleinen Menge der Leitung in diesem Bereich).Besonders hervorzuheben ist die Position der Schockfront, die genau mit der analytischen Lösung übereinstimmt, was zeigt, dass das Schema in dieser äußerst herausfordernden Situation dank der explizit symmetrischen künstlichen Viskositätsbewegungsgleichung Energie spart.Das Sphenix-Schema zeigt bei diesem Problem qualitativ ähnliche Ergebnisse wie das PHANTOM-Schema (Price et al. 2018).Partikeleigenschaften bei t = 0,1, dargestellt gegen die analytische Lösung (lila gestrichelte Linie) für die Sedov-Taylor-Druckwelle.Eine zufällige Teilmenge von 1/5 der Partikel wird in Blau angezeigt, wobei die orangefarbenen Punkte den Mittelwert innerhalb gleich beabstandeter horizontaler Bins mit einer Standardabweichung der Streuung zeigen.Das violette Hintergrundband zeigt den Bereich, der für die Messung der Konvergenz in Fig. 6 berücksichtigt wurde. Diese Abbildung zeigt die Ergebnisse für eine Glasdatei mit 1283 Partikeln.SPH-Schemata bemühen sich aufgrund ihrer inhärenten diskontinuierlichen Natur darum, eine gute Konvergenz bei Schockproblemen zu zeigen.Die ideale Konvergenz für Schocks mit dem künstlichen Viskositätsaufbau, der in Sphenix verwendet wird, ist nur erster Ordnung (dh L1 ∝ h).Abb. 6 zeigt die L1-Konvergenz für verschiedene Felder in der Sedov-Taylor-Druckwelle als Funktion der mittleren Glättungslänge.Die Konvergenz hat hier einen besten Fall von L1(v) ∝ h1/2 in realen Zahlen, viel langsamer als das erwartete L1 ∝ h−1.Dies liegt vor allem an der Art und Weise, wie die Konvergenz gemessen wird;die Stoßfront wird nicht augenblicklich an der gleichen Position wie in der analytischen Lösung aufgelöst (dh es gibt einen Anstieg der Dichte und Geschwindigkeit über eine kleine Distanz, wobei der Maximalwert an der wahren Position erreicht wird).Alle Auflösungsstufen zeigen jedoch eine genau platzierte Schockfront und eine Schockbreite, die linear mit der Auflösung skaliert (weitere Informationen finden Sie in Anhang D).L1 Konvergenz mit mittlerer Glättungslänge für verschiedene Partikelfelder im Sedov-Taylor-Druckwellentest, gemessen bei t = 0,1 gegen die analytische Lösung innerhalb des violetten Bands von Abb. 5. Jeder Punktsatz zeigt einen Messwert aus einer einzelnen Simulation, mit die Linien zeigen eine lineare Anpassung an die Daten im logarithmischen Raum.Punktierte Linien für die Simulation ohne Leitung sind nicht dargestellt, da sie genau über den hier gezeigten Linien liegen.Der Gresho-Chan-Wirbel (Gresho & Chan 1990) wird typischerweise verwendet, um die Erhaltung der Vorticity und des Drehimpulses zu testen, und wird hier in zwei Dimensionen durchgeführt.Generell wird erwartet, dass die Leistung von SPH bei diesem Test stärker vom verwendeten Kernel abhängt (siehe Dehnen & Aly 2012), solange ein ausreichend viskositätsunterdrückender Schalter verwendet wird.Fig. 7 zeigt den Zustand eines Ergebnisses mit hoher Auflösung (unter Verwendung eines Glases, das 5122 Teilchen enthält) nach einer vollen Drehung an der Spitze des Wirbels (r = 0,2, t = 1,3).Der Wirbel wird gut gestützt, wenn auch mit etwas Streuung, und die Spitze des Wirbels bleibt erhalten.Es hat eine gewisse Energieübertragung zum Zentrum mit einer höheren Dichte und inneren Energie als bei der analytischen Lösung stattgefunden, da der Viskositätsschalter (unten rechts gezeigt) einen sehr kleinen, aber von Null verschiedenen Wert hat.Dadurch kann ein Teil der kinetischen Energie in Wärme umgewandelt werden, die langsam in Richtung Zentrum transportiert wird, da dies die Region mit dem niedrigsten Wärmedruck ist.Gresho-Wirbel bei t = 1,3 nach einer Umdrehung der Wirbelspitze mit dem Sphenix-Schema unter Verwendung einer Hintergrundauflösung von 5122 und mit einer Machzahl von |$\mathcal {M} = 0,33$|⁠ .Hier zeigen die blauen Punkte alle Partikel im Volumen, das violette Band den Bereich, der für den Konvergenztest in Abb. 8 verwendet wird, und die violette gestrichelte Linie zeigt die analytische Lösung.Das Viskositätsschaltfeld zeigt einen sehr niedrigen Maximalwert (0,15) relativ zum wahren, vom Code erlaubten Maximum (αVB = 2,0), wobei der Mittelwert (orangefarbene Punkte mit Fehlerbalken, die eine Standardabweichung der Streuung anzeigen) von etwa 0,02 eine zeigt hervorragende Aktivierung der viskositätsreduzierenden Schalter im gesamten Sphenix-Schema.Abb. 8 zeigt die Konvergenzeigenschaften für den Wirbel, wobei das Sphenix-Schema für die Azimutgeschwindigkeit eine Konvergenz von L1 ∝ h0,7 liefert.Da in der Simulation keine nichtlinearen Gradienten der inneren Energie vorhanden sind, gibt es aufgrund der Nichtaktivierung von Gleichung 31 einen sehr kleinen Unterschied zwischen den mit und ohne Leitung durchgeführten Simulationen auf jeder Auflösungsstufe. Diese Konvergenzstufe ist ähnlich zu der in Dehnen & Aly (2012) beobachteten Rate, was impliziert, dass das Sphenix-Schema selbst mit seinem weniger komplexen Viskositätsbegrenzer dank der neuartigen Kombination von verwendeten Schaltern einige der Vorteile des komplexeren Inviscid-Schemas wiedererlangt.L1-Konvergenz mit einer mittleren Glättungslänge für verschiedene Partikelfelder im Gresho-Vortex-Test, gemessen gegen die analytische Lösung innerhalb des schraffierten Bereichs von Abb. 7. Jeder Satz von Punkten zeigt einen gemessenen Wert aus einer einzelnen Simulation, wobei die Linien eine lineare zeigen an die Daten im logarithmischen Raum anpassen.Die durchgezogenen Linien zeigen Ergebnisse, die mit dem vollständigen Sphenix-Schema erhalten wurden, wobei gepunktete Linien die Ergebnisse mit deaktiviertem künstlichen Leitungsschema zeigen.Das Noh-Problem (1987) ist bekanntermaßen äußerst herausfordernd, insbesondere für partikelbasierte Codes, und erfordert im Allgemeinen eine hohe Partikelzahl, um es aufgrund eines ungelösten Konvergenzpunkts korrekt zu erfassen.Es testet eine konvergierende Strömung, die zu einem starken radialen Stoß führt.Dies ist eine extreme, idealisierte Version eines Akkretionsschocks, der üblicherweise in Galaxienentstehungssimulationen auftritt.Die Simulation erfolgt in einem dimensionslosen Koordinatensystem mit einer Boxgröße von L = 1.Der Zustand der Simulation ist zum Zeitpunkt t = 0,6 in Fig. 9 gezeigt und in Fig. 10 visualisiert, die die Radialgeschwindigkeit zeigt, die innerhalb des geschockten Bereichs (hohe Dichte in Fig. 10) gleich Null sein sollte wie die Anfangsbedingungen (dh überall −1) an anderer Stelle.Zusammenfassend:Phys.44Wissenschaft.