Wraz z rozwojem i ewolucją technologii stanowiących fundament działalności operacyjnej, dzięki wydajniejszemu sprzętowi umożliwiającemu więcej obliczeń w jednostce czasu oraz sztucznej inteligencji zwiększającej produktywność pracowników w obszarze technologii, organizacje IT powinny spojrzeć na inne rzeczy czyhające tuż za horyzontem na ich ścieżce wzrostu.
Raporty Tech Trends firmy Deloitte podkreślały w przeszłości rolę bezpieczeństwa, jako czynnika zapewniającego stabilność. Zaufanie do tego, co jest dostarczane przez komputer („Zero trust”), zaufanie, że rozmawiamy z ludźmi, a nie agentami („Defending reality”) są niezbędnym warunkiem wejścia dla innych technologii, aby mieć pewność, że artefakty generowane przez system są w rzeczywistości tymi, których oczekujemy.
Dzisiejsi pracownicy wiedzy (information workers), są polegają na danych. Dane te muszą być nie tylko łatwo dostępne do obliczeń, ale także chronione. Integralność danych ma nie tylko kluczowe znaczenie dla skutecznego zarządzania nimi, ale także zapewnienia, że modele sztucznej inteligencji są szkolone na podstawie dokładnych informacji. Podobnie, poufność danych - zarówno w trakcie przesyłu, (w zastosowaniach takich jak szybki handel, sprzęt diagnostyczny lub dane terenowe IoT), jak i w spoczynku (czyli kopie zapasowe, modele finansowe lub zapisy transakcji) - ma kluczowe znaczenie dla stabilności naszej gospodarki cyfrowej.
Kryptografia, siła stojąca za integralnością i poufnością informacji, oparta na algorytmach matematycznych, jest dziś używana prawie wszędzie. Nawet nasze przeglądarki używają pewnych standardów kryptograficznych do bezpiecznej komunikacji pomiędzy serwerami a urządzeniami końcowymi. Niestety, te szeroko wdrożone standardy nie są łatwe do zmiany. Niewiele organizacji, ze względu na swój stos technologiczny budowany przez lata, nadal wspiera stosowanie niższych standardów, ponieważ albo nie wymagają dużej mocy obliczeniowej na urządzeniach końcowych, albo są niekompatybilne z ich starzejącym się stosem technologicznym.
Z drugiej strony, technologie kwantowe rozwijają się bardzo szybko. Firmy takie jak IBM, Fujitsu, Microsoft, ale także mniej znane szerszej publiczności firmy, takie jak Atom, budują procesory kwantowe, których moc obliczeniowa przyćmi dzisiejsze najlepsze komputery oparte na GPU z ponad 1000 kubitów na procesor, które już działają. Co więcej, Massachusetts Institute of Technology (MIT) ujawnił niedawno nowe sposoby łączenia fotonów i atomów, które skróciłyby czas między obliczeniami a odczytem o jeden poziom wielkości, eliminując jedno z wąskich gardeł rozwoju technologii kwantowej.
Oczekuje się, że kryptograficznie istotne komputery kwantowe (CRQC) będą w stanie złamać obecnie stosowane metody szyfrowania już w 2030! Niektóre doniesienia prasowe sugerują, że chińskie maszyny kwantowe już złamały niektóre obliczenia, potencjalnie mogąc podważyć nawet najsilniejsze standardy szyfrowania, takie jak AES.
Na szczęście technologia przynosi także rozwiązania. Algorytmy kryptografii postkwantowej (PQC) są opracowywane w celu zabezpieczenia kluczy i podpisów cyfrowych. Jednakże, chociaż komputery kwantowe zdolne do złamania dzisiejszego szyfrowania mogą pojawić się dopiero ciągu 5-10 lat, przejście na standardy szyfrowania odporne na ich obliczenia może potrwać równie długo. Tworzy to ryzyko gwałtownej dekrypcji wszystkiego w momencie gdy te systemy zostaną wprowadzone, a także warto rozważyć, że atakujący mogą już zbierać zaszyfrowane dane w celu ich późniejszego odszyfrowania (ataki typu „zbierz teraz, odszyfruj później”). W przeciwieństwie do kryzysu Y2K, gdzie ryzyko było określone w czasie i przewidywalne, harmonogram dla CRQC pozostaje niepewny, powodując, że wiele organizacji depriorytetyzuje przygotowania pomimo potencjalnie ogromnego wpływu na ich własność intelektualną.
Podczas gdy komputery kwantowe obiecują ogromne korzyści - takie jak przyspieszenie odkrywania leków poprzez symulację układów przestrzennych złożonych struktur białkowych - wprowadzają one również bezprecedensowe wyzwania w zakresie bezpieczeństwa. Proaktywne przygotowanie się na te zagrożenia jest niezbędne dla organizacji, których rozwój opiera się na danych cyfrowych.