Pilnuj swoich kluczy

Niedawne badania firmy Truffle Security ujawni艂y, 偶e w jednym z zestaw贸w treningowych znalaz艂o si臋 prawie 12 000 przypadk贸w ujawnienia kluczy oraz hase艂.
Badacze przeanalizowali zawarto艣膰 zbioru Common Crawl z grudnia 2024 roku, sk艂adaj膮cego si臋 z 2,67 miliarda stron internetowych o 艂膮cznej wielko艣ci 400 terabajt贸w. Ich narz臋dzie TruffleHog pomog艂o odkry膰 11 908 prawid艂owych kluczy i hase艂, kt贸re nadal dzia艂a艂y pomimo wycieku.
W艣r贸d nich znalaz艂y si臋 kluczowe dane dost臋powe, takie jak klucze g艂贸wne AWS (Amazon Web Services), klucze API MailChimp oraz klucze WalkScore. Najbardziej powszechne okaza艂y si臋 klucze MailChimp, kt贸rych naliczono prawie 1500 unikalnych egzemplarzy, bezpiecznie osadzonych w kodzie front-endowym stron internetowych.
Posiadanie takich kluczy w niepowo艂anych r臋kach otwiera drog臋 do rozmaitych nadu偶y膰, jak kampanie phishingowe, przyw艂aszczenie marki czy nawet przechwycenie poufnych danych u偶ytkownik贸w. Truffle Security odkry艂o tak偶e webhooki Slacka, kt贸rych ujawnienie mog艂oby umo偶liwi膰 niepo偶膮dane wysy艂anie wiadomo艣ci do firmowych kana艂贸w komunikacyjnych.
Ponadto, badacze ustalili, 偶e 63% wykrytych kluczy pojawia艂o si臋 na wielu stronach, a jeden z kluczy WalkScore zosta艂 zlokalizowany a偶 57 029 razy na 1871 subdomenach. Wskazuje to na powszechn膮 praktyk臋 ponownego wykorzystywania tych samych, wra偶liwych kod贸w.
Poufne dane w zbiorach treningowych AI stanowi膮 powa偶ny problem dla tw贸rc贸w modeli j臋zykowych (LLM), takich jak OpenAI, DeepMind czy Meta. Mimo zabieg贸w czyszczenia danych, usuwania powt贸rze艅 i tre艣ci szkodliwych, trudno jest w pe艂ni wyeliminowa膰 wszelkie przypadki naruszenia prywatno艣ci czy innych wra偶liwych informacji.
W efekcie LLM mog膮 inkorporowa膰 niechciane wzorce zachowa艅 oparte na upublicznionych danych prywatnych. Dlatego bardzo wa偶ne jest podnoszenie 艣wiadomo艣ci w艣r贸d programist贸w, aby nie kodowali na sta艂e kluczy dost臋powych w publicznie dost臋pnych plikach, lecz wykorzystywali bezpieczne zmienne 艣rodowiskowe po stronie serwera.
W 艣wiecie danych i AI nawet drobny b艂膮d mo偶e mie膰 ogromne konsekwencje. Nawet je艣li uwa偶asz, 偶e nikt nie odwiedza Twojej strony, pami臋taj o botach; one czytaj膮 i pami臋taj膮 wszystko.
Framework do budowania agent贸w AI od Cisco

Wraz z rosn膮c膮 popularno艣ci膮 rozwi膮za艅 sztucznej inteligencji, zw艂aszcza system贸w opartych na du偶ych modelach j臋zykowych (LLM), coraz wi臋ksze znaczenie ma interoperacyjno艣膰 mi臋dzy r贸偶nymi platformami i narz臋dziami AI. Wyobra藕my sobie 艣wiat, w kt贸rym agenci AI z r贸偶nych organizacji mogliby swobodnie komunikowa膰 si臋 ze sob膮, wymienia膰 dane i wsp贸艂pracowa膰 bez barier technologicznych. W艂a艣nie to jest celem nowego projektu o nazwie AGNTCY.
AGNTCY to otwarte i kolektywne przedsi臋wzi臋cie zainicjowane przez firmy takie jak Cisco, LangChain, LlamaIndex, Galileo i Glean. Celem projektu jest stworzenie otwartego standardu j臋zyka komunikacyjnego dla agent贸w AI, umo偶liwiaj膮cego im bezproblemow膮 wymian臋 danych i wsp贸艂prac臋 niezale偶nie od technologii, na kt贸rych zostali zbudowani.
Wed艂ug s艂贸w Vijoya Pandeya, szefa firmy Outshift by Cisco, projekt AGNTCY ma odegra膰 rol臋 podobn膮 do tej, jak膮 TCP/IP i DNS odegra艂y dla Internetu, umo偶liwiaj膮c interoperacyjno艣膰 mi臋dzy r贸偶nymi systemami komputerowymi. "Chcemy zbudowa膰 Internet Agent贸w, kt贸ry przyspieszy wszystkie ludzkie prace na skal臋 globaln膮" powiedzia艂 Pandey w rozmowie z VentureBeat.
AGNTCY nie jest pierwsz膮 pr贸b膮 stworzenia standardu dla agent贸w AI. LangChain, jeden z g艂贸wnych cz艂onk贸w projektu, ma w艂asny protok贸艂 Agent Protocol, kt贸ry umo偶liwia komunikacj臋 mi臋dzy agentami LangChain a agentami stworzonymi w innych ramach kodowych. Z kolei firma Anthropic og艂osi艂a w listopadzie ubieg艂ego roku Model Context Protocol (MCP), kt贸rego celem jest standaryzacja 艂膮czenia modeli i narz臋dzi AI z r贸偶nymi 藕r贸d艂ami danych.
Standaryzacja w szybko rozwijaj膮cej si臋 dziedzinie, jak膮 jest AI, stanowi nie lada wyzwanie. Modele i technologie s膮 stale uaktualniane, co utrudnia stworzenie trwa艂ego standardu. Jednak zdaniem Harrisona Chase'a, CEO LangChain, nie jest to niemo偶liwe, zw艂aszcza 偶e samodzielne tworzenie agent贸w AI staje si臋 coraz 艂atwiejsze.
Standaryzacja agent贸w AI niesie ze sob膮 ogromny potencja艂. Umo偶liwi ona swobodn膮 wymian臋 danych i wsp贸艂prac臋 mi臋dzy r贸偶nymi systemami AI, co znacznie zwi臋kszy ich wydajno艣膰 i efektywno艣膰. Dzi臋ki AGNTCY przedsi臋biorstwa b臋d膮 mog艂y 艂膮czy膰 agent贸w z r贸偶nych 藕r贸de艂, tworz膮c z艂o偶one przep艂ywy pracy dopasowane do ich potrzeb.
Podstawy sieci komputerowych

Znajdziesz tutaj r贸偶norodne zasoby, takie jak artyku艂y, filmy oraz materia艂y edukacyjne dotycz膮ce istotnych zagadnie艅, takich jak adresacja, protoko艂y routingu, prze艂膮czanie i mostkowanie. Oferuj膮 one szczeg贸艂owe analizy oraz kontekst historyczny rozwoju technologii sieciowych. Warto zwr贸ci膰 uwag臋 na zgromadzone materia艂y, kt贸re u艂atwiaj膮 zrozumienie podstawowych zasad oraz przedstawiaj膮 praktyczne wskaz贸wki dotycz膮ce zarz膮dzania i projektowania sieci.
Zarz膮dzaj zadaniami Normir w stylu Ansible
NornFlow to narz臋dzie do zarz膮dzania procesami w automatyzacji sieci, oparte na Nornir. Pozwala 艂atwo uruchamia膰 zadania Nornir przez CLI i tworzy膰 z艂o偶one workflowy za pomoc膮 plik贸w YAML, podobnie jak w Ansible. NornFlow 艂膮czy moc Pythona dla programist贸w z prostot膮 obs艂ugi dla in偶ynier贸w, kt贸rzy znaj膮 Ansible, ale nie znaj膮 Pythona. Sprawd藕 dokumentacj臋, aby dowiedzie膰 si臋, jak zacz膮膰 korzysta膰 z tego narz臋dzia.
Jak zbudowany jest klaster DeepSeek?
Przeczytaj ca艂膮 histori臋
Zarejestruj si臋 teraz, aby przeczyta膰 ca艂膮 histori臋 i uzyska膰 dost臋p do wszystkich post贸w za tylko dla p艂ac膮cych subskrybent贸w.
Subskrybuj