2430 Interstellare Kolonisierung durch intelligente Mikromaschinen

Mit dem Starprobe-Beschleuniger wird miniaturisierte ISRU-Ausrüstung (InSitu Resource Utilization) in Richtung Proxima Centauri geschossen. Die Mikrosonden werden begleitet durch natürliche und künstliche Infomorphs, d.h. Uploads und KI.

Starprobe wird normalerweise nur zur Erkundung benutzt, weil die Mikrosonden am Ziel nicht abbremsen können. Deshalb wird Starprobe in diesem Fall unterstützt durch die neue Jupiter-Saturn Containerschnellbahn. Die Schnellbahn steht günstig für das Centauri-System. Sie schickt Matrjoschka-Katapulte auf die Reise nach Proxima Centauri bevor Starprobe startet. Jedes Matrjoschka-Katapult ist eine Kaskade von elektromagnetischen Katapulten mit kapazitativer Energieversorgung. Das jeweils äußerste Katapult beschleunigt seine Nutzlast um einige hundert Kilometer pro Stunde. Die Nutzlast besteht wiederum aus einem etwas kleineren Einmalkatapult mit Nutzlast. Die Kaskade besteht aus 18 Ebenen von 1 m Durchmesser bis hinunter zu 5 cm. Auf diese Art kommt die innere Nutzlast der Schnellbahn-Pakete in den Bereich der Starprobe Geschwindigkeit.

Durch geschicktes Timing erreicht die Schnellbahn-Nutzlast die äußere Region des Proxima-Centauri Systems gleichzeitig mit den von Starprobe abgeschossenen Mikrosonden. Die Schnellbahn-Nutzlast enthält ein gestaffeltes Bremssystem für die Mikrosonden. Das Bremssystem fängt die Sonden und beginnt den Bremsvorgang mit kinetischen Stößen an interstellarer Materie. Das ist bei einigen Prozent der Lichtgeschwindigkeit sehr effektiv. Dann bremst es zusätzlich durch Wechselwirkung mit dem Magnetfeld des Sterns. Weiter innen werden Sonnensegel entfaltet, die den Sonnenwind nutzen und schließlich kommt wieder eine kurze Kaskade von fünf ineinander geschachtelten elektromagnetischen Beschleunigern zum Einsatz bis die Mikrosonden auf interplanetare Reisegeschwindigkeit heruntergebremst sind.

Das Projekt ist wie viele Starprobe Aktivitäten sehr umstritten. Die Kritik bezieht sich auf die Tatsache, dass Intelligenzen in digitaler Form in das Universum versandt werden. Es handelt sich zwar vor allem um NI (Natürliche Intelligenzen = Uploads), also Infosophonten, die von Menschen abgeleitet sind und nur um nicht-bewusste Hilfs-KI. Aber es gibt zwei große Unterschiede zu den anderen Starprobe Missionen:

1. Die Mikrosonden werden aktiv abgebremst und verbleiben im Zielsystem. Bei den sonstigen Erkundungsmissionen von Starprobe rasen die Sonden mit einigen Prozent der Lichtgeschwindigkeit durch das Zielsystem. Abbremsen auf interplanetare Geschwindigkeit ist nur eine theoretische Möglichkeit. Das würde Millionen Jahre brauchen und auf jeden Fall irgendwo anders passieren.

2. Für die Kolonisierung wird explizit ISRU-Ausrüstung mit sehr flexiblen Mikrofabs verschickt. Die Mikrofabs sollen alles bauen können, was im Zielsystem zum Aufbau einer Zivilisation benötigt wird. Während Starprobe-Erkundungsmissionen nur über begrenzte Selbstreparatur verfügten, wird hier genug Technik und Information für Autoreplikation verschickt, und das in ein entferntes System wo Menschen keine Kontrolle mehr haben.

Es würde zwar lange dauern, bis diese Zivilisation selbst wieder Matrjoschka-Katapulte bauen und damit zu einer von-Neumann-Plage werden könnte. Trotzdem halten viele das Projekt für unverantwortlich. Gerade nach den Erfahrungen mit KI-Ausbrüchen im Solsystem sollte man nicht absichtlich Infosophonten mit Replikationsfähigkeiten freisetzen. Befürworter entgegnen, dass die gesamte Ausrüstung letztlich von Menschen in Form von Uploads kontrolliert wird und nur die spätere Ankunft von Menschen in Raumschiffen vorbereiten soll. Selbst wenn sich die Zivilisation außerhalb ihrer Missionsparameter weiterentwickeln würde, wären Menschen nach einiger Zeit zur Stelle, um regulierend einzugreifen.

Eine wichtige Aufgabe der Mission ist der Aufbau einer dauerhaften bidirektionalen interstellaren Kommunikation zum Solsystem. Das klappt auch. 2476 meldet sich der Außenposten per Laser. In den folgenden Jahren wird ein ständiger Strom von Informationen ausgetauscht. Die Menschen im Solsystem können live, mit 4 Jahren Verzögerung, den Aufbau des Außenpostens verfolgen. Im Jahr 2497 bricht der Kontakt plötzlich ab.

#interstellar #KI #Upload #Railgun #Coilgun

http://jmp1.de/h2430

2055 Gari Tata Skandal

Seit den 40er Jahren fahren Autos wirklich selbständig. Das funktioniert nicht nur auf geraden Strecken und Autobahnen, sondern auch überall in den Städten, bei jeder Witterung, Tag und Nacht. Wer ein Fahrzeug braucht, kann sich eines rufen. In der Stadt dauert es nicht länger als 5 Minuten, bis ein Auto vor der Tür steht. Es fährt vom nächstgelegenen Standort alleine her, bringt die Passagiere selbständig zum Ziel und fährt dann weiter zum nächsten Auftrag.

Immer weniger Autos werden an Privatleute verkauft. Die Gesamtzahl der Autos sinkt. Früher standen Autos die meiste Zeit auf der Straße vor dem Haus. Heute sind sie ständig im Betrieb. Die Ressource Auto wird besser genutzt. Dafür werden weniger Einheiten gebraucht. Die Autoindustrie, die gerade erst die Umstellung auf Elektroantrieb verdaut hat, bekommt ein noch viel größeres Problem. Mitte der 40er Jahre setzt eine Konzentrationswelle ein. Autohersteller schließen sich zusammen oder werden von Autovermietern übernommen.

Fahrzeughersteller, die rechtzeitig auf die Vermietung gesetzt haben, werden zu modernen Mobilitätsanbietern mit eigener Hardwareproduktion. Andere Mobilitätsanbieter kaufen sich Fahrzeughersteller, um die Wertschöpfungskette zu verlängern. Eine hohe Verfügbarkeit der Fahrzeuge ist entscheidend. Deshalb müssen Mobilitätsanbieter einen großen Fahrzeugpool bieten. Gleichzeitig müssen die Anbieter überregional stark vertreten sein. Denn auch bei Individualfahrten zwischen Städten kann nur die genutzte Strecke abgerechnet werden, selbst wenn das Auto danach lange zurück fahren muss. Das führt zu Konzentration bei Mobilitätsanbietern durch einige der größten Firmenzusammenschlüsse aller Zeiten.

Um 2050 wird der Mobilitätsmarkt von wenigen Anbietern beherrscht. Einer davon ist Gari Tata, hervorgegangen aus der Mobilitätsplattform GariGari und Tata Motors. Gari Tata hat weltweit 1,6 Milliarden Kunden, davon 900 Millionen feste Abonnenten und fast 100 Millionen eigene Fahrzeuge. Kunden geben heute im Mittel nur noch 5% ihres Einkommens für Mobilität aus. Trotzdem entspricht der Umsatz von Gari Tata dem Bruttoinlandsprodukt eines großen EU-Mitgliedstaats.

Wie alle Mobilitätskonzerne bietet auch Gari Tata verschiedene Verträge, mit fester Laufzeit oder monatlicher Kündigungsfrist, mit festem Reichweitenkontingent oder abhängig von der Nutzung. Es gibt diverse Qualitätsklassen von Kleinwagen bis Sportcabrio. Wie in der Branche üblich, umfasst das Tarifsystem Bonusprogramme, Punktesysteme, Cross-Selling anderer Infrastrukturangebote und Kombitarife für integrierte Kommunikations-, Informations- und Mobilitätsleistungen (KIM-Flats). Die meisten Kunden haben nutzungsabhängige Tarife. Abgerechnet wird nach Zeit und Kilometer automatisch über das jeweilige mobile Gerät des Benutzers (Smart-Button, Ohrring, Armband, ePaper, Nili, Brille).

Im Jahr 2052 prüft das Magazin Urban Professional aus dem San Diego Megaplex die Leistungen mehrerer Mobilitätsanbieter durch Straßentests. Dabei fallen bei allen geprüften Unternehmen Abweichungen auf zwischen theoretischer Wegstrecke und abgerechneter Strecke. Die Abweichungen bewegen sich zwischen 1% und 3%. Das ist keine Überraschung, denn eine Toleranz von 3% ist in den meisten Ländern zulässig. Die Abweichung wird von vielen Stellen regelmäßig gemessen und veröffentlicht. Der entsprechende Verrechnungsfaktor wird von Preisvergleichsplattformen berücksichtigt. Nur Gari Tata fällt mit einer Diskrepanz von 4% auf. Das ist eigentlich nicht möglich, denn die Testlabors der Überwachungsstellen würden den Dienst so nicht zertifizieren. Urban Professional veröffentlich das Testergebnis von Gari Tata als statistischen Ausreißer.

Weltweit gibt es ständig Berichte über Qualität, Leistung und Kosten von Mobilitätsanbietern. Erst 2053 zeigt Gari Tatas Dienst wieder eine hohe Diskrepanz in einem Vergleich von MuMu (Mumbai Municipal). Nach mehreren Presseberichten lässt die indische Verkehrsbehörde den TÜV Bangalore intensive Labor-, Straßen- und Simulatortests durchführen. Dabei stellt sich heraus, dass die Abrechnung von Gari Tata auf dem Prüfstand und im Simulator korrekt ist und auch bei Straßentests nur unter bestimmten Bedingungen falsch liegt. Nach weiteren Untersuchungen taucht die Vermutung auf, dass der Abrechnungsalgorithmus zwischen Test- und Realbedingungen unterscheidet.

Gari Tata scheint verschiedene Kilometerzahlen zu verwenden, je nachdem, ob ein echter Fahrbetrieb stattfindet oder ein Test läuft. Nur bei echten Endkunden wird mit einer bis zu 6% höheren Kilometerzahl gerechnet. Anscheinend gleicht das Abrechnungssystem auch Kundenprofile und Kontonamen mit externen Datenbanken ab. Sogar bei freien Mitarbeitern von Mobilitätsmagazinen, die das Benutzerkonto von Familienangehörigen verwenden, fallen keine Ungereimtheiten auf. Die Abrechnungssoftware betreibt offensichtlich großen Aufwand, um echte Fahren von Testfahrten zu unterscheiden und die abweichende Berechnung zu verschleiern.

Nach einem Crapsturm in den Medien erklärt Gari Tata, dass bei Überprüfungen tatsächlich andere Kilometerangaben gelten, da bei Labortests auf dem Prüfstand keine realen Entfernungen gemessen werden können. Die indische Verkehrsbehörde akzeptiert die Erklärung und stellt nach einem bestandenen Wiederholungstest die Ermittlungen ein.

Aber die Verbraucherschützer lassen sich nicht so leicht abwimmeln. Die Erklärung von Gari Tata hat offensichtliche Lücken, da ja nicht nur Labortests betroffen sind. Allmählich gelingt es unabhängigen Testern, die Fehlabrechnung reproduzierbar nachzuweisen.

Anfang 2054 verschwinden die Abweichungen plötzlich. Anscheinend hatte Gari Tata die Manipulation durch ein Softwareupdate weltweit abgeschaltet. Nur in den wenigen Simulatoren ohne Netzwerkverbindung bleibt der Fehler messbar. Durch diesen offensichtlichen Eingriff werden Regulierungsbehörden in mehreren Staaten aufmerksam. Ermittlungen beginnen. Es gibt Anfragen an den Konzern, Durchsuchungen, Vernehmungen und Beschlagnahme von Beweismitteln. Die Medien berichten ausführlich. Das Neukundengeschäft bricht ein.

Mitte 2054 gibt Gari Tata die Manipulation zu. Der Softwaredienstleister eines Zulieferers der malaysischen Privatkundentochter des Konzerns habe einen Abrechnungsalgorithmus entwickelt, der den Customer Lifetime Value optimiert. Die Auswahl des Dienstleisters durch den Zulieferer sei auf Basis einer Kosten/Nutzen Analyse geschehen ohne, dass den Mitarbeitern von Gari Tata eine unerlaubte Manipulation angezeigt worden wäre. Unglücklicherweise habe die Softwarekomponente der Tochterfirma später weltweit in die Betriebsware der Fahrzeuge Eingang gefunden.

Die aufwändigen Verschleierungsmaßnahmen in der Abrechnungssoftware und die Protokolle der Softwareupdates lassen die Erklärung unglaubwürdig erscheinen. Der Umsatz geht um 10% zurück.

Vor allem Kunden mit kurzen Verträgen wechseln zu anderen Anbietern. In den meisten Regionen der Erde konkurrieren mehrere Unternehmen um das Mobilitätsbudget der Kunden. Die Leistung ist so standardisiert, dass sich die Angebote vor allem in Preis und Service unterscheiden. Ein Wechsel fällt nicht schwer.

In über 150 Ländern werden Verbraucherklagen und Rückforderungen gegen den Konzern eingereicht.

Die zugehörigen Ermittlungen führen zu weiteren Untersuchungen. Dabei kommt heraus, dass viele Ebenen an der Manipulation beteiligt waren. Verantwortliche und Mitwisser sitzen im Vorstand der GT-Holding, in Produktmanagement und Vertrieb, Entwicklung und Wartung, bei Zulieferern und in regionalen Töchtern. In rund 100 Ländern reicht die Staatsanwaltschaft Klage ein. Der Umsatz fällt um 20%.

Der Großteil der Gewinne von Gari Tata liegt in Staaten mit günstigen Steuerbedingungen. Der Konzern hatte Unternehmensanleihen ausgegeben, um Gewinne an die Aktionäre auszuschütten ohne bei Finanztransfers hohe Einkommenssteuern zahlen zu müssen. Diese Praxis läuft schon einige Jahre. Anleihen in der Höhe eines Jahresumsatzes stehen unversteuerte Guthaben von 120% entgegen.

Im Jahr 2055 werden Auslandsguthaben unter Verlusten repatriiert. Das geht nicht schnell genug. Die Holding kann nicht mehr alle Kredite bedienen. Der Aktienkurs stürzt ab.

Anleihen werden vorfällig. Eine Prognose ergibt eine deutliche Unterdeckung von steuerbereinigten Guthaben gegenüber den Verbindlichkeiten. Der Aktienkurs stürzt ins Bodenlose. In mindestens 50 Staaten wird der Konzern zu Strafen verurteilt. Die Gesamthöhe beträgt 80% eines Jahresumsatzes. Leitende Mitarbeiter werden angeklagt. Außerordentliche Vertragskündigungen von Bestandskunden lassen den Umsatz um 50% einbrechen.

Anfang 2056 erklärt die Holding Zahlungsunfähigkeit. Viele Regionalgesellschaften folgen. Der Betrieb wird eingestellt. Alle Kunden wechseln. Der Verkauf der Fahrzeugflotte verläuft schleppend.

Wenige Jahre später wird Gari Tata aus dem Firmenregister gelöscht.

Gegen den Leiter der indischen Verkehrsbehörde wird wegen Vorteilsnahme ermittelt. 80 weitere Mitarbeiter der Behörde werden entlassen.

In über 50 Staaten werden über 300 Mitarbeiter von Gari Tata wegen Betrug verurteilt, ca. 150 wegen Verschwörung, 99 wegen organisiertem Verbrechen und 3 in Bhutan wegen grob fahrlässiger Reduzierung des Bruttonationalglücks.

In mehr als 70 Staaten der Erde werden Verbindungen zwischen Steueramnestien und Gari Tata Lobbyisten bekannt. Insgesamt treten weltweit zwei Minister und fünf Abgeordnete zurück.

Verbraucherschutz-INGOs (Independent-NGO) decken auch bei anderen Mobilitätsanbietern Optimierungen auf, die höhere Average Customer Lifetime Values realisieren. Es stellt sich heraus, dass die anderen Anbieter bei der Manipulation der Abrechnung nur etwas defensiver vorgehen als Gari Tata und vor allem noch bessere Algorithmen zur Testdetektion verwenden.

#Skandal #Mobilität #Betrug #Wirtschaft

http://jmp1.de/h2055

2101 Smart Fusion

Die Geschichte der Fusionsenergie hat Höhen und Tiefen, vor allem aber Längen. Neue physikalische Ansätze führen schneller zum Ziel, als die großen teuren Tokamaks. Dezentralisierte Fusionsanlagen lösen Gigawatt-Kraftwerke ab. Hot Fusion wird Smart.

Viele Jahrzehnte wird die Fusionsforschung durch den Toroid-Ansatz dominiert. Mit Tokamak und Stellarator gibt es schnelle Anfangserfolge. Aber spätestens in den 80er Jahren des 20. Jahrhunderts wird klar, dass die frühen Versprechen nicht eingehalten werden können. Trotzdem wird weiterhin sehr viel Geld in riesige Fusionsexperimente investiert.

Während sich die Torus-orientierte Forschung in die Länge zieht und Generationen von Plasmaphysikern beschäftigt, entsteht in den 2000er Jahren eine Welle von neuen Ansätzen zur Kernfusion. Die klassische Tokamakforschung versucht, immer heißere und längere Plasmazustände zu schaffen, um wenigstens einige Teilchen zur Fusion zu bringen. Das Prinzip besteht darin, ein Plasma durch Druck und zusätzliche Heizung viele Millionen Grad heiß zu machen. Deshalb wird sie Hot Fusion genannt.

Im Gegensatz dazu konzentrieren sich die neuen Smart Fusion genannten Ansätze darauf, dem Fusionsbrennstoff genau die richtige Energie mit auf den Weg zu geben und den Großteil des Plasmas für Fusion zu aktivieren. Auch Smart Fusion Technologien verwenden heißes Plasma. Manche aber in Form von schnellen Ionen bei denen die Teilchengeschwindigkeit nicht durch Heizung, sondern durch Hochspannung erreicht wird. Das ist physikalisch günstiger, deshalb "smart".

Schnell gibt es mehrere Smart Fusion Methoden mit ganz unterschiedlichen Charakteristiken. Allen gemeinsam ist aber, dass sie im Gegensatz zum klassischen Tokamak

- für neutronenfreie Fusionsprozesse geeignet sind und fast keine Radioaktivität erzeugen,

- direkt elektrische Energie liefern ohne den Umweg über eine Dampfturbine,

- kompakter, günstiger und für eine dezentrale Energieversorgung geeignet sind.

Smart Fusion Forschung findet für einige Jahrzehnte im Schatten der Tokamakforschung statt. Die Hot Fusion Flaggschiff-Projekte mobilisieren 100 Mal mehr finanzielle Mittel, als Smart Fusion Projekte. Trotzdem übertreffen die Kennzahlen von Smart Fusion bald die von Hot Fusion. Das liegt nicht nur an den langen Bauzeiten für große Tokamaks, sondern auch an den günstigeren physikalischen Ausgangsbedingungen.

Anfang der 20er Jahre erreichen mehrere Smart Fusion Projekte den Break-Even für den Fusionsprozess in Testkonfigurationen. Das sind noch lange keine Kraftwerke. Aber der Weg ist klar und das Ziel schon nah. Zehn Jahre später erreichen einige Forschungsreaktoren den Break-Even mit kompletten Systemen.

Nach diesen Erfolgen tritt Smart Fusion aus dem Schatten der Tokamaks. Um 2035 entsteht eine Welle von Fusion-Startups durch Ausgründungen von wissenschaftlichen Instituten und Tochtergesellschaften von Energiekonzernen. Große Investitionen fließen in Smart Fusion Projekte. Die Planung für den Tokamak-Reaktor DEMO als ITER-Nachfolger wird gestoppt.

Die Welt hungert nach Energie. Aus den Forschungsreaktoren werden in relativ kurzer Zeit Demonstratoren für kommerzielle Reaktoren entwickelt. Gegen 2040 gehen mehrere Reaktoren mit Leistungen von 50 bis 200 Megawatt in Betrieb.

Die meisten Reaktoren verwenden den Proton-Bor11 Prozess, der keine Neutronen erzeugt und damit kaum radioaktive Strahlung produziert. Die Fusionsprodukte sind Alphateilchen, geladene Heliumkerne mit hoher Energie. Sie können direkt in Strom umgewandelt werden durch inverse Zyklotrons und Linacs. Damit entfällt der Zwischenschritt über Wärmetauscher und Dampfturbine. Der Wirkungsgrad der Stromumwandlung ist 80%.

Die wichtigsten Technologien sind:

- Elektrostatischer Einschluss mit virtueller Anode (IEC)

- Selbstfokussierender Einschluss unter Ausnutzung natürlicher Plasmainstabilitäten (DPF)

- Kollidierende Plasmaringe in zylindrischem Einschluss mit umgekehrter Feldkonfiguration (FRC)

- Laserbeschleuniger für Protonen mit Borplasma-Target (LAF)

Mitte des Jahrhunderts gehen die ersten großen kommerzielle Reaktoren mit einer Leistung von 500 MW in den Regelbetrieb. Andere Technologien ermöglichen auch Kraftwerke mit 5 MW. Zwischen 2050 und 2055 laufen die meisten Patente für die technologischen Grundlagen von Fusionsreaktoren aus. Das ermöglicht vielen neuen Anbietern den Markteintritt. Es entsteht eine lebendige Dienstleistungsinfrastruktur für Wartung, Betrieb, Sicherheitsüberwachung und Brennmittel. Schon 15 Jahre später, um 2065 liefern kommerzielle Fusionskraftwerke die Hälfte der Grundlast.

Die Versorgungsstruktur ist regional sehr unterschiedlich. In manche Regionen gibt es Kraftwerkszentren, die die Energieerzeugung bündeln und die bestehende Netzinfrastruktur weiterverwenden. Andere Regionen und einzelne Städte verlassen sich auf kleinere lokale Kraftwerksblöcke im 50-100 MW Bereich. Dort werden die alten Überlandleitungen sogar abgebaut.

Beim Ausfall der Netze ab 2070 sind Fusionskraftwerke betroffen wie alle Kraftwerke. Bis auf wenige Ausnahmen sind Kraftwerkssteuerungen auf Informations- und Stromnetze angewiesen. Im Gegensatz zu den meisten anderen Kraftwerkstypen, von Erneuerbaren über Verbrennung- bis zu Fissionskraftwerken, brauchen Fusionskraftwerke auch eine starke Stromquelle zum Betrieb. Der Fusionsprozess wird durch Ionenheizung, Magnetfelder, Laser, gekühlte Supraleiter und Starkstromentladungen am Leben gehalten. All diese Techniken brauchen Stromquellen. Fusionskraftwerke sind gewissermaßen Energieverstärker. Während große Windkraftanlagen ohne eigene Stromversorgung 10 Megawatt produzieren können, braucht ein 10 MW Fusionsreaktor ein Megawatt Strom zum Betrieb. In der Krisensituation ist die Umrüstung von Kraftwerken auf autarken Betrieb besonders schwierig. Bei Fusionsanlagen kommt noch das Problem des Betriebsstroms hinzu.

Es dauert viele Jahre bis wieder Strom aus Fusionskraftwerken kommt. Fusionskraftwerke sind sehr neu und deshalb noch mehr von Informationsnetzen abhängig als ältere Typen. Die Steuersoftware muss umgeschrieben werden. Das geht nur mit Strom und moderner Ausrüstung. Dann müssen Schäden behoben werden, die während der Krise und der langen Standzeit aufgetreten sind. Die Ersatzteilbeschaffung ist sehr schwierig. Es geht nicht nur um elektronische Bauteile, Turbinen, Getriebe oder Leitungen, sondern je nach Fusionstechnologie auch um Supraleiter, Vakuumpumpen, Halbleiterlaser, nanometergenaue Hochspannungsanoden aus seltenen Erden und viele andere High-Tech Komponenten.

Zu Beginn der Krise war schon 60% der Stromversorgung auf Fusion umgestellt. Das war aber regional sehr unterschiedlich. In Europa hatte man traditionell viel Wert gelegt auf regenerative Energien und bei Fusion auch auf Dezentralisierung. Dort herrschen kleinere Anlagen vor, die weniger Betriebsstrom brauchen. Dieser kommt irgendwann wieder aus den anderen reaktivierten Kraftwerken und die Fusionskraftwerke laufen wieder an. In den spät industrialisierten Regionen Afrikas und Asiens dominieren Großkraftwerke und Kraftwerkskomplexe. Die Wiederinbetriebnahme dauert teilweise bis zu 40 Jahre.

Zu Beginn des 22. Jahrhunderts kämpfen manche Länder und Regionen noch um die Wiederherstellung ihrer High-Tech Infrastruktur. Andere haben schon Ressourcen, um die Fusionstechnologie weiterzuentwickeln. Nach den Erfahrungen der Krise konzentriert sich die Forschung auf kleinere Anlagen und Dezentralisierung. Kurz nach 2100 werden 100 kW Fusionsbrenner marktfähig. Sie sind für die Versorgung einzelner Häuser geeignet. Ein Mikro-Kraftwerk hat die Größe eines Kleintransporters. Damit hat es eine geringere Energiedichte als ein Verbrennungsmotor oder ein alter Gasbrenner. Aber im Gegensatz zu fossilen Kraftwerken läuft ein Fusionsgenerator jahrelang mit einer Wasserstoff/Bor11-Kartusche und erzeugt nur ungefährliches Helium-Gas als Abfallprodukt.

Als um 2120 die Wirtschaftsleistung der Welt wieder das Vorkrisenniveau erreicht, liefert Smart Fusion 80 % des Stroms. Wirtschaft und Wohlstand wachsen weiter. Der Energiebedarf verdoppelt sich alle 15 Jahre. Große IEC Anlagen im Gigawatt Bereich werden ergänzt durch 100 kW DPFs. Strom und Energie sind kein Flaschenhals mehr für Wachstum und Wohlstand.

#Fusion #Energie #Wissenschaft #Wirtschaft #Krise

http://jmp1.de/h2101

2501 Frühe extraplanetare Forschungsmissionen

In unserem Bereich der Milchstraße ist viel Platz zwischen den Sternen. Die Umlaufbahnen der äußeren Planeten passen da 10.000 Mal hinein. Der interstellare Raum ist riesengroß. Ein Volumen tausend Milliarden mal so groß wie das Sonnensystem. Und es ist nicht leer. Außerhalb der regulären Planeten gibt es weitere Kleinplaneten und den Kuiper-Gürtel. Noch weiter im extraplanetaren Raum die Oort'sche Wolke und die Baqannoo-Sphäre.

Es gibt Irrläufer-Objekte, Asteroiden, Planeten, braune Zwerge, Pulsare, Uraniden, Häufungen dunkler Materie und andere exotische Dinge, sogar technische Installationen, wie man viel später herausfindet. Es gibt viel zu entdecken und zu erforschen. Aber die Entfernungen sind gewaltig. Die meisten Objekte sind zu weit weg für Rückstoßtriebwerke.

Mitte des dritten Jahrtausends hat sich der Raumschiffantrieb nach dem Raumkrümmer-Prinzip etabliert. Anfangs wurde er für Expressfrachten auf Diagonalstrecken verwendet, mit effektiven Geschwindigkeiten, die weit unter der Lichtgeschwindigkeit lagen. Heute kommen uns die ersten Raumkrümmer vor, wie der Flug der ersten Doppeldecker-Flugzeuge. Die Schiffe waren damals noch mit einem Tausendstel der Lichtgeschwindigkeit unterwegs. Sie waren sehr klobig, teuer und unzuverlässig. Das ist 120 Jahre her. Seitdem hat sich viel getan. Frachter sind mit 2% c inzwischen 20-mal schneller. Die Antriebe sind zuverlässig und sie laufen bei dieser Geschwindigkeit auch im Dauerbetrieb.

Theoretisch fliegt man heute sogar (effektiv) viermal so schnell sind wie das Licht. Damit kommt man schon weit in die Oort'sche Wolke. Aber diese Technologie ist an der Grenze des Machbaren. Sie ist noch nicht für Dauerlast geeignet und kann deshalb nicht auf langen Strecken eingesetzt werden, jedenfalls nicht ohne Risiko.

Seit es Raumkrümmer gibt, haben astrophysikalische Forschungsexpeditionen die Grenzen der Antriebe ausgetestet. Die Wissenschaftler finden immer wieder neue interessante Ziele in der näheren Umgebung. Und um dort hinzukommen gehen sie an die Grenze des Möglichen. Astrophysikalische Expeditionen sind auch oft gleichzeitig Belastungstests für die nächste Antriebsgeneration.

Viele Organisationen sind aktiv in Astronomie und Astrophysik. Mit interplanetaren Instrumenten kann man heute sehr weit und sehr genau sehen. Und Raumkrümmer bieten nun die Möglichkeit, die astronomischen Entdeckungen in der näheren interstellaren Umgebung der Sonne, dem extraplanetaren Raum, zu besuchen. Es gibt im Lauf der Zeit viele Flüge zu extraplanetaren Zielen. Es gibt wissenschaftliche Expeditionen, geheime militärische Missionen,  private Unternehmen und auch spektakuläre Fehlschläge.

Mit neuen Triebwerken immer weiter hinaus zu fliegen in den interstellaren Raum zwischen den Sternen gehört zu den letzten großen Abenteuern. Hat man ein technisches Problem und geht der Antrieb kaputt, dann kann man im Nichts stranden, Lichtwochen oder Lichtmonate von Hilfe entfernt. Sogar die Nachricht von der Havarie braucht dann Monate bis nach Hause. Schnelle Rettung ist unwahrscheinlich. Man kann nicht mal eben ein Schiff in ein paar Kubik-Lichtmonaten aufspüren. Sogar das Peilsignal ist wochenlang unterwegs. Und es gibt sowieso nicht viele Schiffe, die verfügbar und leistungsfähig genug sind für eine Rettungsmission.

Hier einige bemerkenswerte Expeditionen in den ersten 100 Jahren intrastellarer Reisen:

- Pontos (früher: neunter Planet), das Eiswunder. Pontos ist ein Eisplanet. Er wurde vor hunderten Millionen Jahren von einem marsgroßen Körper getroffen. Die kinetische Energie verflüssigte den gesamten Planeten und für einige Millionen Jahre sorgte der langsam abkühlende Kern dafür, dass seine 1000 Kilometer dicke Ammoniak-Wassereis-Hülle eine Zeit der Tektonik und des Wetters erlebte. Inzwischen ist alles wieder erstarrt zu einer faszinierenden Eislandschaft.

Eine Expedition besuchte Pontos 2390. Sie entdeckte die Eislandschaften. Auf dem Rückweg gab es ein Problem mit dem Antrieb. 1000 AU vom inneren System strandete die Gahara Sthaan IX mit ihrer Mech-Besatzung. Die Infomorphe wurden 37 Jahre später durch eine Rettungsmission evakuiert.

Trivia: Pontos wurde benannt nach einem alten griechischen Meeresgott.  Man wählte absichtlich einen Namen mit "P", um Pluto in Abzählreimen zu ersetzen.

- Tyche, ein brauner Zwerg in 1,1 Lichtjahren Entfernung von der Sonne (=80.000 AU). Tyche ist gravitativ an unsere Sonne gebunden. Er befindet sich auf einer sehr weiten Umlaufbahn. Tyche hat 15 Jupitermassen. Er ist ein sehr kleiner und kalter brauner Zwerg. Tyche hat eine mittlere Oberflächentemperatur von -20 Grad Celsius. Er wurde zuerst 2493 besucht. Tyche hat vier Trabanten (Monde oder Planeten, je nach Sichtweise) von denen einige wieder eigene Monde haben. Auf einem Mond von Tyche A gibt es im späten 27. Jahrhundert eine permanente Forschungsstation. Die Wissenschaftler studieren die Möglichkeit von nativem Leben auf Tyche an einigen heißen Quellen mit flüssigem Wasser.

Trivia: der Name Tyche bezeichnete ursprünglich einen hypothetischen Planeten in der Oort'schen Wolke, der durch seinen Gravitationseinfluss Kometen mit langer Periode produziert. Eine statistische Analyse der Bahnparameter führte im 20. Jahrhundert zur Tyche-Theorie. Die Theorie wurde nach einer Durchmusterung mit Infrarot-Teleskopen im 21. Jahrhundert verworfen. Der heute Tyche genannte Himmelskörper ist viel weiter entfernt als der hypothetische Tyche des 20. Jahrhunderts. Auch er stört Bahnen in der Oort'schen Wolke und löst Kometen aus, aber ohne die statistische Auffälligkeit. Diese stellte sich später als Oszillation in der Oort'schen Wolke selbst heraus. Tyche entspricht auch nicht dem früher vermuteten periodischen Oort-Störer, der das Dinosauriersterben verursacht haben soll.

- Bis in eine Entfernung von 2 Lichtjahren gibt es mehrere planetenartige Himmelskörper. Bei den meisten handelt es sich um eingefangene Irrläufer-Planeten mit weiten elliptischen Umlaufbahnen. Die Irrläufer entstanden vor langer Zeit bei anderen Sonnen und wurden durch verschiedene Effekte aus ihrem System katapultiert. Die Größe reicht von kleinen Merkur-großen Gesteinsplaneten über gefrorene Gasriesen bis zu braunen Zwergen. Sie bilden zusammen die sogenannte Baqannoo-Sphäre (nach Iddo Baqannoo). Pontos und Tyche sind die bekanntesten Vertreter der Baqannoo-Sphäre.

Inzwischen sind über 300 Objekte bekannt. Abgesehen von Pontos und Tyche wurden in den ersten Jahren der extraplanetaren Erkundung nur drei der Objekte besucht. Eine vierte Expedition ist verschollen. Es gibt keine Hinweise auf den Verbleib. Der Kontakt brach auf dem Hinflug in einer Entfernung von 4000 AU plötzlich ab.

Trivia: Spätestens mit dem Nachweis des vierten Baqannoo-Objekts wurde die Stellung von Pontos als neunter Planet in Frage gestellt. Als im Lauf der Zeit immer mehr semi-gebundene interstellare planetenartige Objekte entdeckt wurden und die Baqannoo-Sphäre Gestalt annahm, wurde Pontos von der Internationalen Astronomischen Union als Semiplanet klassifiziert und verlor damit seinen Status als neunter Planet des Sonnensystems.

- ein alter Pulsar in 1,5 Lichtjahren Entfernung, Katalogbezeichnung XA-2314c-M. Die Rotationsperiode des Pulsars beträgt 4,2 Sekunden. Der Strahl-Konus ist nicht in das innere Sonnensystem gerichtet. Deshalb wurde er sehr spät entdeckt. Das erste Signal war eine Reflexion an einem Baqannoo-Sphären Objekt. Erstmals besucht 2443 durch Starprobe: ein Vorbeiflug von Nanosonden mit 30.000 km/s. Der erste dauerhafte Besuch war die Expedition der Kublai-Khan im Jahr 2498.

- Uraniden, Kometenkerne der Oort'schen Wolke mit einem ungewöhnlich hohem Urananteil. Die Zerfallswärme des Urans sorgt für flüssiges Wasser im Inneren des Kometenkerns. Das Wasser moderiert die Neutronen der Uran-Fission und hält so einen natürlichen Atomreaktor am Leben. Entdeckt wurden Uraniden im Jahr 2373 durch eine Explosion als ein Kern überkritisch wurde und mit einer natürlichen 5 kt Explosion auf sich aufmerksam machte. Die Explosion wurde von Gammadetektoren im System registriert. Daraufhin konnte man die zugehörigen optischen, Infrarot- und Neutrinosignale in permanent laufenden Experimenten finden und über Triangulation die Position bestimmen.

Es gibt mehrere Uraniden. Der nächste ist 2.800 AU entfernt. Die Uraniden entstanden als eine Supernova schwere Elemente auf einem ihrer Eisriesen deponierte. Der Planet brach dabei auseinander und die Trümmer verteilten sich im interstellaren Raum. Einige Millionen Jahre später wurden einige dann von unserer Sonne eingefangen. Bei einer Expedition zu BA-2421j-U im Jahr 2477 wurden Proben genommen. Dank der vielen Proben und der großen Menge verschiedener Isotope und Zerfallsketten konnte man den Zeitpunkt der Supernova-Explosion auf 10 Stellen genau bestimmen. Die Supernova fand statt im Jahr 8.131.606 vor unserer Zeitrechnung am 31. März um 13:29 h +/- 7 Minuten, also zwischen 13:22 h und 13:36 h GMT.

- ein besonders exotisches extraplanetares Objekt ist die Shen-Senke (nach dem Astronomen Shen Li) in 22.000 AU Entfernung. Die Senke ist eine Häufung ultrakalter dunkler Materie. Sie wurde im Jahr 2289 entdeckt durch ein zufälliges Gravitationslinsen-Ereignis. Die dunkle Materie macht sich nur gravitativ bemerkbar. Sie entspricht der Masse des Neptuns und hat eine Ausdehnung von 3 Millionen Kilometern.

Dunkle Materie sollte eigentlich nicht so kompakt auftreten. Da sie nicht mit sich selbst interagiert und deshalb keine inelastischer Stöße vorkommen, gibt es keine bremsenden, bzw. klumpenden Effekte. Die Masse der Shen-Senke muss durch einen unbekannten Effekt abgebremst worden sein. Ihre Konstituenten haben sehr geringe Relativgeschwindigkeiten und befinden sich nun quasi frei auf benachbarten Trajektorien um unsere Sonne.

Das Ultrateleskop BISON erkennt 2413 mehrere Satelliten, eingefangene Oort-Objekte, in weiten Orbits um die Gravitationssenke und einen Asteroiden, der innerhalb der Senke kurioserweise fast linear durch das kräftefreie Zentrum oszilliert. In den Jahr 2484 wird die Shen-Senke von zwei konkurrierenden Expeditionen besucht und genau vermessen (Tsegaye-Gubennya-13 vom Astrophysikalischen Institut des Jupiter-Orbital Mek’ele und Scott-Gravity-Research-A/Isle of Sol/Venus). Die Terra Nova, das Schiff von Scott-Gravity, erreicht die Shen-Senke wenige Wochen nach Tsegaye-Gubennya.

Auf dem Rückflug trifft die Terra Nova auf eine weitere unbekannte Gravitationssenke, heute bekannt als Terra Nova Riff. Die bis dahin unbekannte Gravitationsanomalie ist kompakter als die Shen-Senke mit weniger Masse und  Ausdehnung. Heute wissen wir, dass sie, wie mehrere andere kleinere Senken, die Shen-Senke umkreist. Die Terra Nova läuft mit voller Reisegeschwindigkeit und ohne Vorwarnung in die Senke. Die fraktalen Raumverzerrungen des Antriebs lösen eine heftige Reaktion in den Konstituenten der Senke aus. Diese bestehen zwar nicht aus baryonischer Materie, aber sie reagieren auf gravitative Raumverzerrungen. Die Explosion der Terra Nova ist mit solaren Großteleskopen gut zu sehen.

Seit der Terra Nova Katastrophe vermutet man, dass es noch viele weitere Häufungen dunkler Materie im extraplanetaren Raum gibt. Gravitationssenken sind aber schwer zu entdecken. Sie sind letztlich nur leerer Raum mit einem flachen Gravitationspotential.

#Planet #Reisen #Wissenschaft #Irrläufer #Interstellar #ExotischeObjekte

http://jmp1.de/h2501