1/ Zaufanie często uznawane jest za istniejące domyślnie, a nie za rzeczywiście egzekwowane.
Gdy inteligencja AI ewoluuje z asystenta w autonomicznego działacza, to domyślne założenie cichutko traci na ważności.
Prawdziwym modelem porażki nie jest niedobór zdolności wnioskowania, ale to, że agent działa w warunkach braku sztywnych granic.
"Inteligentny" agent działający na słabej infrastrukturze nie przyniesie autonomiczności.
2/ To, co przynoszą, to ryzyko.
Problem polega na tym, że zaufania nie można wywnioskować z intencji ani wyników.
W systemach autonomicznych oczekiwania, polityki oraz tzw. "najlepsze praktyki" nie mogą być skalowane.
Jeśli brakuje wyraźnej tożsamości, ograniczonego zakresu uprawnień i egzekwowalnych ograniczeń w chwili działania, system musi polegać na ślepym zleceniu.
Logi i wyjaśnienia generowane po fakcie nie mogą zapobiec szkodom, mogą jedynie opisać już zaistniałe fakty.
W tym momencie zaufanie to tylko optymizm zapakowany w narzędzie.
3/ Kite rozwiązuje ten problem poprzez egzekwowanie zaufania na poziomie infrastruktury.
Na Kite tożsamość, uprawnienia, ograniczenia i logika działania agenta są definiowane w sposób natywny i weryfikowane na łańcuchu, co sprawia, że działania są ograniczane przed ich wystąpieniem, a nie po fakcie.
To pozwala agentowi działać bez potrzeby zatwierdzenia przez człowieka i bez ślepego zaufania, w sposób bezpieczny i niezależny.
Na Kite zaufanie nie jest obietnicą.
Jest to cecha samego systemu.
🪁


