Künstliche Intelligenz hat viele Branchen verändert. Überall stellt sich die gleiche Frage: Wird sie Menschen ersetzen? In Krypto sieht man die Folgen schon, zum Beispiel durch KI-gesteuerte Trading-Bots und agentenbasierte Handelssysteme.
Doch Alex Svanevik, CEO und Mitgründer von Nansen, sagt, dass KI den menschlichen Verstand nicht ersetzt, sondern ihn unterstützt. In einem exklusiven Interview mit BeInCrypto erklärt Svanevik diesen Wandel genauer und zeigt, was die Zukunft für KI-gestützte Analysen bringt.
KI-Debatte in Krypto-Trading: Nansen CEO fordert Ergänzung statt Ersatz
Am 21. Januar kündigte Nansen den Start seiner KI-gestützten On-Chain-Handelsfunktion an. Das ist ein großer Schritt weg von einer reinen Analyse-Plattform hin zu einem Produkt, das Einblicke gibt und direkten Handel ermöglicht.
Mit seiner eigenen Datenbank von mehr als 500 Millionen markierten Wallets erlaubt die neue Funktion den Nutzerinnen und Nutzern, Portfolios zu verwalten, On-Chain-Signale live zu interpretieren und Vorschläge auf Datenbasis zu bekommen. Zudem können sie Trades direkt in Nansen ausführen.
„Nansen AI wurde mit der hauseigenen Datenbank trainiert und geprüft. Bei Tests für On-Chain-Analyse und Handel schneidet Nansen AI regelmäßig besser ab als andere führende KI-Produkte. So liefert das System nicht nur genauere, sondern auch direkt nutzbare Einblicke. Damit bekommen Trader und Investoren einen echten Vorteil beim Handel“, heißt es in der Ankündigung.
Außerdem eröffnet der Start, was Nansen „Vibe-Trading“ nennt. Damit ist gemeint, dass Nutzer einfacher vom Einblick zum On-Chain-Handel kommen, ohne ständig das Werkzeug wechseln zu müssen.
Während die KI immer mehr Analysearbeiten übernimmt, stellt sich die Frage nach der Rolle der menschlichen Analysten. Svanevik meinte, KI kann riesige Datenmengen verarbeiten. Sie analysiert zum Beispiel Hunderte Millionen Wallets, verfolgt Chain-übergreifende Bewegungen und erkennt Muster, die Menschen nicht sehen würden.
Er betonte aber, dass die Entscheidungen bei den Nutzenden bleiben. Menschen steuern den Prozess, indem sie die richtigen Fragen stellen und Aktionen freigeben.
„Die Grenze ist nicht fest. Sie verschiebt sich, wenn KI besser im Denken wird und On-Chain-Daten vielfältiger werden. Das Ziel ist aber nicht, Urteilsvermögen zu ersetzen. Menschen sollen von langweiligen Aufgaben befreit werden, damit sie sich auf wichtigere Entscheidungen konzentrieren“, sagte er.
Woran du erkennst, ob Analysen im KI-getriebenen Krypto-Markt wirklich vertrauenswürdig sind
Forschungen zeigen, dass mehr Nutzung von KI-Werkzeugen die Fähigkeit zum kritischen Denken schwächen kann. In den Krypto-Märkten müssen Trader oft mit extremer Schwankung und riskanten Assets umgehen. Das Risiko ist also noch größer.
Svanevik sieht das anders. Er meint, „gute KI“ gibt mehr Hinweise. Dadurch müssen Nutzende kritischer über die Durchführung nachdenken, nicht weniger.
„Der eigentliche Risiko-Faktor ist, wenn alle nach dem gleichen Muster handeln. Das gibt es nicht nur bei KI, sondern auch bei menschlichen Analysten. Die Lösung ist Vielfalt: verschiedene Modelle, Strategien und Daten-Interpretationen. Deshalb bauen wir Werkzeuge, die eigene Entscheidungen unterstützen, nicht ein einziges System, dem alle folgen“, fügte er hinzu.
Der Geschäftsführer stellte zusätzlich klar, dass man keiner KI und keinem Menschen blind vertrauen sollte. Wichtig sei, ob die Analyse regelmäßig über längere Zeit stabil bleibt.
Zur Glaubwürdigkeit auf einem KI-geprägten Markt sagte der CEO,
„Glaubwürdigkeit in einer KI-geführten Zeit kommt durch Messung und Wiederholung, nicht durch einen Namen oder Follower in sozialen Medien. KI kann ständig und sehr großflächig getestet werden. Das ist ein Vorteil, den Menschen nie erreichen können.“
Er erklärte, der einfachste Test ist praktisch. Svanevik schlägt vor: Die Nutzenden sollten Fragen stellen, die für sie relevant sind und prüfen, ob die Antworten hilfreich, verständlich und nutzbar sind. Er meint, die meisten erkennen gute Qualität schnell.
„Langfristig wird sich das Vertrauen weg von einzelnen Analysten bewegen, hin zu Plattformen, die regelmäßig beweisen, dass sie Hinweise liefern und Störfaktoren verringern. Das ist unser Anspruch“, sagte Svanevik zu BeInCrypto.
Darum kann KI On-Chain-Daten analysieren, aber niemals menschliche Überzeugung ersetzen
Menschliche Analysten treffen Handelsentscheidungen oft auf Basis von On-Chain-Kennzahlen, Kursdaten und anderen Hinweisen. Dazu nutzen sie ihr Urteilsvermögen und ihren Blick für den Zusammenhang. Dagegen verlassen sich KI-Systeme auf Muster, die sie aus vergangenen Daten lernen.
Als man Svanevik fragte, ob KI einmal ein ähnliches Urteilsvermögen bekommen kann, sagte er, das ist wahrscheinlich – aber auf eine andere Art als beim Menschen.
Er erklärte, dass KI eine eigene Art von Zusammenhängen erkennt. Der Geschäftsführer glaubt, dass sie viel besser darin sein kann, Live-Daten aus ganz verschiedenen Bereichen zu verarbeiten als jede Person.
„Dafür braucht es besseres Training, längere Kontexte und Rückmeldungen aus der echten Durchführung. Das passiert schon bei unserem Agenten. Er erkennt nicht nur Muster, sondern versteht, wie sich Verhaltensdaten in Echtzeit verändern. Das ist der erste Schritt zum Urteilsvermögen. Mit jeder Entwicklung des Modells und mit dem Lernen aus Millionen On-Chain-Interaktionen wird das besser“, sagte Svanevik.
Svanevik sieht aber einen Punkt, den KI nie voll ersetzen kann: Verantwortung für Entscheidungen unter Unsicherheit zu tragen.
Er meint, KI kann zwar Muster, Wahrscheinlichkeiten und Szenarien zeigen und analysieren, was passiert ist oder passieren könnte. Aber sie kann keine persönliche Risikobereitschaft, Werturteile oder Verantwortung übernehmen, wenn es schiefgeht.
„On-Chain-Analyse führt immer zu echten Handlungen: Geld investieren, Teams fördern, öffentliche Empfehlungen geben. Jemand muss diese Entscheidungen verantworten. Das bleibt ein menschlicher Job“, so der Geschäftsführer.
Er betonte, dass Glaubwürdigkeit immer bei Menschen liegen wird, ganz egal, wie fortschrittlich KI-Modelle werden. Bei Entscheidungen, Verantwortung und Überzeugung zählen Menschen. KI kann dabei helfen, Entscheidungen zu treffen, dennoch müssen Menschen sie selbst fällen und die Folgen tragen.
„Entscheiden, was wichtig ist. KI kann dir sagen, was auf der Chain passiert, aber sie kann dir nicht sagen, worauf du achten solltest. Das ist Geschmack. Das ist Überzeugung. Das ist menschlich“, sagte Svanevik.
Am Ende sieht Svanevik KI als ein starkes Hilfsmittel, nicht aber als Entscheider. Zwar kann KI Muster, Wahrscheinlichkeiten und Erkenntnisse wie nie zuvor sichtbar machen, dennoch bleibt der Mensch zentral für Risiko, Verantwortung und Überzeugung.
Da Analysen mit KI immer öfter genutzt werden, wird Vertrauen immer wichtiger bei Plattformen, die ihre guten Erkenntnisse fortlaufend zeigen können. Gleichzeitig sind Menschen weiterhin dafür verantwortlich zu entscheiden, was zählt, und für die Ergebnisse einzustehen.
