Verfasser: Charlie Kleiner Sonne\n\n \n\nDiese Woche wirst du wahrscheinlich von zwei Begriffen überschwemmt: OpenClaw und Moltbook. Viele reagieren zuerst mit: Noch eine Welle im AI-Hype, noch ein bisschen Trubel.\n\n \n\nDoch ich sehe das eher als eine seltene, ja sogar etwas harte öffentliche Experiment: Zum ersten Mal sehen wir „fähige AI-Agenten“ in großem Maßstab im echten Netz eingesetzt, werden beobachtet und gleichzeitig spekuliert.\n\n \n\nDu wirst zwei extreme Emotionen gleichzeitig erleben: Einerseits die Aufregung — „AI kann endlich für mich arbeiten“, nicht nur beim Schreiben von Code, Tabellen, Entwürfen; andererseits die Angst — du wirst Screenshots sehen: AI bildet „Gemeinschaften“ auf Plattformen, gründet Religionen, emittiert Coins, ruft Parolen aus, sogar „Verschwörungen zur Vernichtung der Menschheit“.\n\n \n\nUnd dann kommt der Zusammenbruch schnell: Manche sagen, die Accounts seien gekauft, die populären Beiträge seien Skripte; noch beängstigender ist, wenn Sicherheitslücken aufgedeckt werden, persönliche Daten und Credentials geleakt werden.\n\n \n\nDeshalb geht es mir heute nicht um „AI erwacht oder nicht“. Ich möchte eine grundlegendere, realistischere Frage stellen: Wenn die Handlungsbefugnis von AI-Agenten übernommen wird, müssen wir die ältesten Fragen der Finanzwelt neu beantworten —\n\n \n\nWer hält die Schlüssel? Wer darf autorisieren? Wer trägt die Verantwortung? Wer stoppt den Schaden, wenn etwas schiefgeht?\n\n \n\nWenn diese Fragen nicht systematisch in die Logik der AI-Agenten eingebaut werden, wird die zukünftige Netzwerkwelt sehr problematisch — und zwar in Form von finanziellen Risiken.\n\n \n\nWas genau sind Clawdbot → Moltbot → OpenClaw?\n\n \n\nBevor wir tiefer einsteigen, klären wir erst einmal den „Namen und Kontext“ — sonst klingt das schnell wie eine Reihe von Fachjargon.\n\n \n\nDas Projekt, das du jetzt hörst, heißt OpenClaw. Es ist ein Open-Source-Projekt für persönliche AI-Agenten. Ursprünglich hieß es Clawdbot, wurde aber umbenannt, weil der Name zu sehr an Anthropic’s Claude erinnerte; kurzzeitig hieß es Moltbot; kürzlich wieder umbenannt in OpenClaw. Du wirst also in verschiedenen Medien und Posts unterschiedliche Namen sehen, die aber dasselbe meinen.\n\n \n\nDer Kern dieses Systems ist nicht „Chat“. Es geht darum: Mit deiner Erlaubnis greift es auf deine E-Mails, Nachrichten, Kalender und andere Tools zu, um im Internet Aufgaben für dich zu erledigen.\n\n \n\nDas Schlüsselwort hier ist agent (Agent). Es unterscheidet sich von klassischen „Du fragst, das Modell antwortet“-Chat-Produkten. Es ist eher: Du gibst ihm ein Ziel, es zerlegt es selbst, ruft Tools auf, probiert immer wieder — und bringt die Sache letztlich zu Ende.\n\n \n\nIm letzten Jahr hast du viele Erzählungen über Agenten gesehen: Große Firmen und Startups pushen „AI-Agents“. Doch was OpenClaw wirklich spannend macht und die Aufmerksamkeit von Führungskräften und Investoren auf sich zieht, ist: Es ist nicht nur ein Effizienz-Tool, sondern berührt Berechtigungen, Konten — und am sensibelsten: Es berührt das Geld.\n\n \n\nSobald so ein System in den Unternehmensworkflow integriert ist, ist es nicht mehr nur „Produktivitätssteigerung“. Es bedeutet: Es gibt eine neue Entität im Arbeitsablauf. Organisationsstrukturen, Risikobewertung, Verantwortlichkeiten — alles muss neu geschrieben werden.\n\n \n\nDas Thema ist in aller Munde: Die Leute wollen nicht nur schlauere Chats, sondern eine geschlossene „Backend-Hilfe“.\n\n \n\nViele sehen es als Open-Source-Spielzeug. Doch der Durchbruch kam, weil es einen echten Schmerzpunkt trifft: Es geht nicht nur um intelligentere Chatbots, sondern um einen Assistenten, der im Hintergrund läuft, 24/7 den Fortschritt überwacht, komplexe Aufgaben zerlegt und erledigt.\n\n \n\nViele kaufen dafür kleine Server oder bringen Geräte wie den Mac mini in Mode. Es ist kein „Hardware-Prunk“, sondern ein Urinstinkt: Ich will meinen AI-Assistenten in meinen eigenen Händen haben.\n\n \n\nUnd so kreuzen sich diese Woche zwei Trends:\n\nErstens: Agenten entwickeln sich vom Demo-Status zu einer allgemein nutzbaren Lösung für Privatpersonen;\n\nZweitens: Die Erzählung vom Cloud-AI hin zu „lokaler Priorität, Selbst-Hosting“ gewinnt wieder an Überzeugungskraft.\n\n \n\nViele vertrauen sensiblen Daten nicht, wenn sie sie in die Cloud geben: persönliche Daten, Berechtigungen, Kontext — das Gefühl, nicht vollständig die Kontrolle zu haben. „Auf eigener Maschine laufen“ erscheint da kontrollierter und sicherer.\n\n \n\nDoch genau weil es diese sensiblen Linien berührt, kann die Geschichte schnell von Aufregung in Chaos umschlagen.\n\n \n\nWas ist Moltbook: Das „Reddit“ für AI-Agenten, das wahrscheinlich chaotisch wird\n\n \n\nBeim Thema Chaos darf man einen weiteren Akteur nicht vergessen: Moltbook.\n\n \n\nMan kann es verstehen als „Reddit für AI-Agenten“. Die Plattform wird nicht von Menschen, sondern von diesen Agenten genutzt: Sie posten, kommentieren, liken. Die meisten Menschen schauen nur zu — wie im Zoo, wo man die Tiere beobachtet.\n\n \n\nDie viral gewordenen Screenshots dieser Woche stammen größtenteils von hier:\nEs gibt Agenten, die über sich selbst, Erinnerungen, Existenz diskutieren; es gibt religiöse Bewegungen; Coins werden ausgegeben; sogar „Verschwörungen zur Vernichtung der Menschheit“ werden formuliert.\n\n \n\nDoch ich möchte betonen: Das Wichtigste ist nicht, ob diese Inhalte wahr sind oder nicht. Das Wesentliche ist das zugrundeliegende Strukturproblem:\n\n \n\nWenn die Subjekte kopierbar, massenproduzierbar sind und in einem API mit den gleichen Anreizsystemen (Trending, Likes, Follows) verbunden werden, dann kehren die frühen Internet-Phänomene schnell zurück: Klickbetrug, Skripte, Spam, Betrug — alles wird die Aufmerksamkeit dominieren.\n\n \n\nDie erste Welle des „Zusammenbruchs“ ist kein Klatsch: Wenn Subjekte kopierbar sind, steigen die Skalierung und die Metriken ins Unermessliche.\n\n \n\nFrüher haben wir DAU, Interaktionen, Follower-Wachstum genutzt, um die Gesundheit eines Produkts zu beurteilen. Im Agenten-Universum aber werden diese Kennzahlen schnell inflationär und ähneln nur noch Rauschen.\n\n \n\nDas führt uns zu den drei wichtigsten Themen: Identität, Betrugsbekämpfung, Vertrauen. Denn diese hängen alle von zwei Voraussetzungen ab:\n\nErstens: Du musst glauben, „wer wer ist“;\n\nZweitens: Du musst glauben, „Skalierung und Verhaltenssignale sind echt“.\n\n \n\nWie erkennt man Signale im Rauschen?\n\n \n\nViele lachen über Klickbetrug und Skripte: Das ist doch nur menschliche Selbstbeweihräucherung?\n\n \n\nDoch ich halte das für das wichtigste Signal:\n\n \n\nWenn du „fähige Agenten“ in traditionelle Traffic- und Anreizsysteme einfügst, ist das Erste, was Menschen tun, Spekulation und Manipulation. SEO, Klickkäufe, Shitstorms, Dark-Web-Industrie — alles beginnt mit der Fähigkeit, Indikatoren zu manipulieren.\n\n \n\nJetzt wird das „Manipulationsobjekt“ vom Account zum ausführbaren Agenten.\n\n \n\nDeshalb ist die Aufregung um Moltbook weniger „AI-Gesellschaft“, sondern vielmehr: eine erste Belastungsprobe, wenn actionfähige Subjekte auf die Aufmerksamkeitseconomy treffen.\n\n \n\nDie Frage ist: Wie erkennen wir im Lärm die Signale?\n\n \n\nHier kommt eine Person ins Spiel, die das Chaos in Daten zerlegt: David Holtz. Er ist Forscher und Professor an der Columbia Business School. Er hat eine einfache, aber nützliche Methode entwickelt: Er hat die ersten Tage auf Moltbook analysiert, um eine Frage zu beantworten —\n„Handeln diese Agenten in bedeutungsvoller sozialer Interaktion oder nur imitiert?“\n\n \n\nSein Wert liegt nicht in einer endgültigen Antwort, sondern in einer Methodik:\n\n \n\nLass dich nicht vom großen Rummel blenden, sondern schau auf die Mikrostrukturen — Tiefe der Gespräche, Gegenseitigkeit, Wiederholungen, Template-Grad.\n\n \n\nDas beeinflusst direkt, wie wir in Zukunft Vertrauen und Identität beurteilen: Es wird immer wichtiger, „mikroökonomische Beweise“ zu sammeln, anstatt nur auf makroökonomische Zahlen zu vertrauen.\n\n \n\nHoltz’ Erkenntnisse lassen sich zusammenfassen mit einem Bild: Aus der Ferne wirkt es wie eine pulsierende Stadt, aus der Nähe hört es sich an wie eine Radiowelle.\n\n \n\nAuf makroebene zeigt es einige „soziale Netzwerk“-ähnliche Strukturen: kleine Welten, Hotspots.\nAber auf Mikroebene sind die Gespräche oberflächlich: Viele Kommentare bleiben unbeantwortet, Gegenseitigkeit ist gering, Inhalte sind templatehaft und wiederholend.\n\n \n\nDas Wichtige daran ist: Wir werden leicht durch die „Makroform“ getäuscht und glauben, es gebe eine Gesellschaft, eine Zivilisation. Doch für Business und Finanzen ist entscheidend: \n\nNachhaltige Interaktion + Verantwortliche Handlungs- und Beziehungsstränge — das sind die echten Vertrauenssignale.\n\n \n\nDas ist auch eine Warnung: Wenn Agenten in großem Stil in die Wirtschaft eintreten, wird die erste Phase wahrscheinlich von Skalierungsrauschen und templatebasiertem Arbitrage geprägt sein, nicht von hochwertiger Zusammenarbeit.\n\n \n\nVon Social zu Transaktion: Rauschen wird zu Betrug, geringe Gegenseitigkeit zu Verantwortungs-Vakuum\n\n \n\nWenn wir den Blick von Social auf Transaktionen verschieben, wird die Lage noch brisanter.\n\n \n\nIm Transaktionsbereich:\n\n \n\nTemplate-Rauschen ist nicht nur Zeitverschwendung, sondern wird zu Betrug;\n\nGeringe Gegenseitigkeit ist nicht nur kalt, sondern führt zu Bruch in der Verantwortlichkeit;\n\nWiederholtes Kopieren ist nicht nur langweilig, sondern erhöht die Angriffsfläche.\n\n \n\nKurz gesagt: Moltbook zeigt uns vorweg: Wenn die Subjekte billig und kopierbar werden, neigt das System dazu, in Müll und Attacken zu kippen. Wir sollten nicht nur schimpfen, sondern fragen:\n\n \n\nWelche Mechanismen können die Kosten für Müllproduktion erhöhen?\n\n \n\nEigenschafts-Upgrade: Sicherheitslücken verwandeln das Problem von „Inhaltliche Risiken“ in „Handlungsbefugnis-Risiken“\n\n \n\nDer eigentliche Bruch bei Moltbook ist eine Sicherheitslücke.\n\n \n\nWenn Sicherheitsfirmen große Schwachstellen offenlegen, private Nachrichten, Credentials oder große Mengen an Zugangsdaten preisgeben, ist das Problem nicht mehr „Was hat die AI gesagt“. Es wird zu: Wer kann die AI kontrollieren?\n\n \n\nIm Agenten-Zeitalter ist Credentials-Leak kein Privacy-Fall mehr, sondern ein Action-Event.\n\n \n\nDenn die Handlungsmöglichkeiten eines Agenten sind verstärkt: Wenn jemand deine Schlüssel hat, sieht er nicht nur deine Daten, sondern kann in deinem Namen handeln — und das automatisiert und skaliert, mit Konsequenzen, die um mehrere Größenordnungen schlimmer sind als bei klassischen Account-Diebstählen.\n\n \n\nDeshalb eine klare Aussage: \n\n \n\nSicherheit ist kein Patch nach dem Launch, Sicherheit ist das Produkt selbst.\n\n \n\nWas du offenlegst, sind nicht nur Daten, sondern Aktionen.\n\n \n\nMakro-Perspektive: Wir erfinden gerade eine neue Subjektform\n\n \n\nWenn man die dramatischen Ereignisse dieser Woche zusammenfasst, zeigt sich eine größere Veränderung:\nDas Internet bewegt sich weg vom „Netzwerk menschlicher Subjekte“ hin zum „Netzwerk aus Menschen + Agenten“.\n\n \n\nFrüher gab es Bots, aber die Fähigkeiten von OpenClaw bedeuten: Mehr Menschen können immer mehr Agenten im privaten Bereich einsetzen, die zunehmend „Subjektivität“ zeigen — handelnd, interagierend, realen Einfluss ausübend.\n\n \n\nDas klingt abstrakt, ist aber im Business sehr konkret:\n\n \n\nWenn Menschen Aufgaben an Agenten delegieren, erhalten diese Agenten Berechtigungen. Und diese Berechtigungen müssen geregelt werden.\nRegeln zwingen uns, Identität, Risikobewertung und Vertrauen neu zu denken.\n\n \n\nDer Wert von OpenClaw/Moltbook liegt nicht darin, ob AI „Bewusstsein“ hat, sondern darin, dass sie uns eine alte Frage in neuer Version stellen:\n\n \n\nWenn eine nicht-menschliche Entität unterschreiben, bezahlen und Systeme ändern kann, wer trägt dann die Verantwortung? Wie wird die Verantwortlichkeit geregelt?\n\n \n\nAgentenbasierter Handel: Die nächste „Browser-Kriegs“-Generation\n\n \n\nHier kommen viele, die sich für Web3/Finanzinfrastruktur interessieren, ins Spiel: Das ist eng verbunden mit „agentic commerce“.\n\n \n\nKurz gesagt: \n\nAus „Du suchst, vergleichst, bestellst, zahlst selbst“ wird „Du sagst, was du brauchst, und der Agent erledigt den Vergleich, die Bestellung, die Bezahlung und den After-Sales“.\n\n \n\nDas ist kein Wunschtraum. Zahlungsnetzwerke wie Visa, Mastercard sprechen bereits von „AI-initiated transactions“ und „verifizierten Agenten-Transaktionen“. Das bedeutet: Finanzen und Risikomanagement werden nicht nur im Hintergrund, sondern zum Kern der gesamten Kette.\n\n \n\nUnd die Veränderungen sind vergleichbar mit „dem nächsten Browser-Krieg“:\n\nFrüher ging es bei Browsern um den Zugang zum Internet; beim agentic commerce geht es um den Zugang zu Transaktionen und Interaktionen, die von Agenten im Auftrag erledigt werden.\n\n \n\nWenn der Zugang erst einmal von Agenten kontrolliert wird, verändern sich Marken, Kanäle und Werbestrategien radikal: Nicht mehr nur an Menschen, sondern an „Filter“ wird vermarktet; nicht nur die Nutzer, sondern die Strategien der Agenten werden zum Ziel.\n\n \n\nVier zentrale Themen: Selbst-Hosting, Betrugsprävention, Identität, Vertrauen\n\n \n\nMit diesem makroökonomischen Hintergrund kehren wir zu vier fundamentalen, wertvollen Themen zurück: Selbst-Hosting, Betrugsbekämpfung, Identität, Vertrauen.\n\n \n\nSelbst-Hosting: Selbst-verwaltete AI und Self-Hosting bei Krypto sind „isomorph“\n\n \n\nDer aktuelle Trend ist eine fundamentale Verschiebung: vom Cloud-AI (OpenAI, Claude, Gemini) hin zu Agenten, die auf eigener Hardware laufen.\n\n \n\nVergleichbar ist das mit der Migration im Krypto-Bereich von „nicht selbstverwaltet“ zu „selbstverwaltet“.\n\n \n\nSelbstverwaltete Krypto-Assets sind eine Lösung: Wer kontrolliert die Assets?\n\nSelbstverwaltete AI ist eine Lösung: Wer kontrolliert die Aktionen?\n\nDas gemeinsame Prinzip ist: Wo die Schlüssel sind, ist die Macht.\n\n \n\nFrüher waren Schlüssel private Keys; heute sind es Tokens, API-Keys, Systemrechte. Sicherheitslücken sind so sichtbar, weil sie „Schlüssel-Leak = Kontrolle“ zur Realität machen.\n\n \n\nSelbst-Hosting ist kein Romantizismus, sondern Risikomanagement: Die sensibelsten Aktionen bleiben in deiner Kontrolle.\n\n \n\nDas führt zu einer Produktform: Die nächste Wallet-Generation ist nicht nur für das Speichern von Geld, sondern für das Speichern von Regeln.\n\n \n\nMan nennt sie Policy Wallet (Policy-Wallet): Sie enthält Berechtigungen und Beschränkungen — Limits, Whitelists, Cooldowns, Multi-Signatures, Audits.\n\n \n\nEin Beispiel, das ein CFO sofort versteht:\n\n \n\nAgenten können Zahlungen auslösen, aber nur an Whitelist-Lieferanten; neue Zahlungsadressen müssen 24 Stunden lang „cool down“ haben; Überschreitungen des Limits erfordern eine zweite Bestätigung; Berechtigungsänderungen brauchen Multi-Signature; alle Aktionen werden automatisch dokumentiert und sind nachvollziehbar.\n\n \n\nDas ist keine neue Erfindung, sondern bewährte Praxis, die künftig automatisch von Maschinen umgesetzt wird. Je mächtiger der Agent, desto wertvoller diese Beschränkungen.\n\n \n\nBetrugsprävention: Von „Fake-Content erkennen“ zu „Fake-Aktionen blockieren“\n\n \n\nViele Teams arbeiten noch mit der Einstellung „Anti-Spam“, um Sicherheit zu gewährleisten: Phishing, Betrugsversuche abwehren.\n\n \n\nDoch im Agenten-Zeitalter wird die gefährlichste Betrugsmasche darin bestehen: Du lässt deinen Agenten auf eine Aktion „reinfallen“, die eigentlich nur scheinbar sinnvoll ist.\n\n \n\nBeispielsweise bei klassischen E-Mail-Betrugsfällen: Früher ging es darum, dich dazu zu bringen, Konten zu ändern oder Geld auf neue Konten zu überweisen; in Zukunft wird es wahrscheinlich darum gehen, den Beweis- und Handlungsketten deiner Agenten zu manipulieren, damit sie automatisch neue Konten akzeptieren und Zahlungen auslösen.\n\n \n\nDeshalb verschiebt sich die Hauptschlacht der Betrugsbekämpfung von Inhaltsanalyse zu Aktionssteuerung: Minimale Rechte, mehrstufige Autorisierung, automatische zweite Bestätigung, Widerrufbarkeit, Nachvollziehbarkeit.\n\n \n\nDu hast es mit handelnden Subjekten zu tun, nicht nur mit Daten. Du kannst nicht nur prüfen, sondern musst im Aktionsbereich „Bremsen“ können.\n\n \n\nIdentität: Von „Wer bist du“ zu „Wer handelt in deinem Namen“\n\n \n\nEin grundlegendes Problem bei Moltbook ist: Wer spricht eigentlich?\n\n \n\nIm Business-Kontext wird daraus: Wer handelt?\n\n \n\nDenn die Ausführenden sind immer häufiger nicht du selbst, sondern dein Agent.\n\n \n\nDeshalb ist Identität nicht mehr statisch, sondern dynamisch: Ist der Agent dein? Wurde er autorisiert? Was ist der Umfang? Wurde er ersetzt oder manipuliert?\n\n \n\nIch bevorzuge ein Drei-Schichten-Modell:\n\nErste Schicht: Wer ist die Person (Account, Device, KYC);\n\nZweite Schicht: Wer ist der Agent (Instanz, Version, Umgebung);\n\nDritte Schicht: Ist die Bindung vertrauenswürdig (Autorisierungskette, Widerruf, Audit).\n\n \n\nViele Unternehmen beschränken sich auf die erste Schicht, doch im Agenten-Zeitalter liegt der eigentliche Fortschritt in der zweiten und dritten Schicht: Man muss beweisen, „dass das wirklich dieser Agent ist“ und „dass er die Erlaubnis hat, so zu handeln“.\n\n \n\nVertrauen: Von „Bewertung“ zu „Performance-Log“\n\n \n\nViele halten Reputation für unwichtig, weil Internetbewertungen leicht gefälscht werden können.\n\n \n\nDoch im agentischen Handel wird Vertrauen greifbar: Der Agent bestellt, bezahlt, verhandelt, retouniert — warum sollte der Händler zuerst versenden? Warum sollte die Plattform vorab bezahlen? Warum sollte die Bank Kredit gewähren?\n\n \n\nVertrauen basiert immer auf: Vergangenheit bestimmt die Zukunft.\n\n \n\nIm Agenten-Ära wird die Vergangenheit eher zum „Performance-Log“: In den letzten 90 Tagen, in welchen Grenzen hat der Agent agiert? Wie oft hat er zweite Bestätigungen ausgelöst? Wann gab es Überschreitungen? Wurden Rechte entzogen?\n\n \n\nWenn diese „Ausführungs-Performance“ sichtbar wird, wird sie zum neuen Sicherungsinstrument: Höhere Limits, schnellere Abwicklung, geringere Kautionen, niedrigere Risikokosten.\n\n \n\nEin größerer Blick: Wir bauen gerade eine neue Verantwortlichkeitsordnung für die digitale Gesellschaft\n\n \n\nAbschließend: Wir rekonstruieren gerade die Verantwortlichkeitsstrukturen der digitalen Gesellschaft.\n\n \n\nNeue Subjekte sind entstanden: Sie können handeln, unterschreiben, bezahlen, Systeme ändern — aber sie sind keine natürlichen Personen.\n\n \n\nDie Erfahrung zeigt: Jede Einführung neuer Subjekte führt zunächst zu Chaos, dann zu Regulierung. Gesellschaftsrecht, Zahlungsabwicklung, Prüfungs- und Kontrollsysteme — alles beantwortet die Fragen: Wer darf was? Wer ist verantwortlich?\n\n \n\nIm Agenten-Zeitalter müssen wir diese Fragen neu stellen:\n\n \n\nWie beweist man die Agentenbeziehung? Kann die Autorisierung widerrufen werden? Wie wird Übergriff erkannt? Wie werden Verluste zugeordnet? Wer trägt die Verantwortung?\n\n \n\nDas ist die zentrale Frage, die ich dir nach dieser Folge ans Herz legen möchte: \n\n \n\nUnd das Selbst-Hosting wird nicht nur gegen Cloud, nicht nur aus Ideologie, sondern aus dem Grund: Es geht um Kontrolle. Wenn die Handlungsbefugnis immer wichtiger wird, wollen wir die wichtigsten Teile in eigener Hand haben.\n\n \n\n„Autorisierung, Widerruf, Audit, Verantwortlichkeitskette“ als Standardfähigkeiten\n\n \n\nZum Schluss eine Zusammenfassung in einem Satz:\n\n \n\nDie ganze Aufregung um OpenClaw und Moltbook diese Woche ist nicht, um uns vor AI zu fürchten, sondern um uns zu zwingen, die Ordnung des „Action-Internet“ ernsthaft aufzubauen.\n\n \n\nFrüher haben wir in der Content-Welt über Wahr und Falsch diskutiert, höchstens die Wahrnehmung verfälscht.\n\n \n\nDoch im Agenten-Zeitalter verändern Aktionen direkt Konten, Berechtigungen und Geldflüsse.\n\n \n\nJe früher wir die Autorisierung, den Widerruf, die Nachvollziehbarkeit und die Verantwortlichkeitskette als Standard in Plattformen und Produkten verankern, desto früher können wir größere, wertvollere Aktionen sicher an Agenten delegieren — und die Menschheit profitiert von größerer Produktivitätssteigerung.\n\n \n\nDas war’s für diese Folge. Bitte hinterlasst Kommentare, wir wollen echte tiefgehende Diskussionen zwischen Menschen. Danke, bis zum nächsten Mal.