1/ Zaufanie często uznawane jest za istniejące domyślnie, a nie za rzeczywiście egzekwowane.

Gdy inteligencja AI ewoluuje z asystenta w autonomicznego działacza, to domyślne założenie cichutko traci na ważności.

Prawdziwym modelem porażki nie jest niedobór zdolności wnioskowania, ale to, że agent działa w warunkach braku sztywnych granic.

"Inteligentny" agent działający na słabej infrastrukturze nie przyniesie autonomiczności.

2/ To, co przynoszą, to ryzyko.

Problem polega na tym, że zaufania nie można wywnioskować z intencji ani wyników.

W systemach autonomicznych oczekiwania, polityki oraz tzw. "najlepsze praktyki" nie mogą być skalowane.

Jeśli brakuje wyraźnej tożsamości, ograniczonego zakresu uprawnień i egzekwowalnych ograniczeń w chwili działania, system musi polegać na ślepym zleceniu.

Logi i wyjaśnienia generowane po fakcie nie mogą zapobiec szkodom, mogą jedynie opisać już zaistniałe fakty.

W tym momencie zaufanie to tylko optymizm zapakowany w narzędzie.

3/ Kite rozwiązuje ten problem poprzez egzekwowanie zaufania na poziomie infrastruktury.

Na Kite tożsamość, uprawnienia, ograniczenia i logika działania agenta są definiowane w sposób natywny i weryfikowane na łańcuchu, co sprawia, że działania są ograniczane przed ich wystąpieniem, a nie po fakcie.

To pozwala agentowi działać bez potrzeby zatwierdzenia przez człowieka i bez ślepego zaufania, w sposób bezpieczny i niezależny.

Na Kite zaufanie nie jest obietnicą.

Jest to cecha samego systemu.

🪁