Niedługo budowanie zdecentralizowanych systemów AI stanie się koniecznością. Duże transnarodowe koncerny mają nieograniczone środki na szyfrowanie
tuneli, bezpieczną transmisję danych i kontrolowanie aplikacji jakie zaprzęgają do swojej pracy.
No ale my jesteśmy dopiero wschodzącą potęgą gospodarczą... na dorobku. Musimy być w tym nie mniej dobrzy.
Niech rozwojowi tematu posłuży wpis na jaki trafiłem wczoraj.
:
Cytat@Bxxxxxxx69
Osobiście mam trochę obawy przed wykorzystywaniem szeroko AI. Tzn. nawet przy budowaniu systemu z wielu agentów i aplikacji, które są gotowe czuję się niepewnie, bo nie wiem czy moje dane są bezpieczne.
Jak ma się jeden duży system z jednej firmy, to raczej człowiek się orientuje (przynajmniej teoretycznie) czy ta firma korzysta i w jaki sposób używa naszych danych. Teraz mając 10 różnych narzędzi AI, każde od innej firmy, każde coś robi i przesyła to jako input do kolejnego narzędzia - to dla mnie poziom zaufania tutaj spada, bo nie jestem w stanie sprawdzić wszystkiego i mieć satysfakcjonującego poziomu pewności.
Zaczyna się wtedy trochę u mnie taki syndrom, że żeby jeździć autem trzeba być mechanikiem, bo wiem wtedy jak co działa. Nie wiem czy ktoś też tak ma, ale utrudnia to trochę poznanie i pójście dalej :) Bo mam obawę gdzie i do czego ktoś potem używa moich danych. Dane osobowe, dane klientów, dane transakcji, dane o finansach - nikt normalnie by tego nie podał drugiemu człowiekowi.
Cytat@dxxxxx2
Tak, mam podobne obawy. Do tego stopnia że zatrzymałem się w punkcie gdzie uznałem że dopóki nie postawie lokalnej maszyny AI zupełnie odciętej od internetu, nie odważne sie wykorzystać możliwości agentów do pracy z tworzonymi przez siebie na przestrzeni lat dokumentami. Sparingujemy nadal z Claud i Gemini na temat faktycznych zagrożeń oraz na ile są realne, jak możemy się przed nimi bronić, na ile " zły scenariusz" może mi zaszkodzić. Wiec nadal to procesuje a równocześnie zaczynam zagłębiać temat sprzętu i możliwości dla lokalnego agenta offline.