49,90 zł
Gospodarka cyfrowa – to gospodarka oparta na danych (datafikacja – danetyzacja). Rodzi się w związku z tym wiele pytań: czy można mówić o własności danych, czy raczej o problemie dostępu do danych? jak pogodzić ochronę danych z potrzebą ułatwienia udostępniania danych w interesie publicznym? jak te kwestie różnicować w kontekście danych osobowych i danych ekonomicznych, często powiązanych z ochroną praw własności intelektualnej i przemysłowej oraz tajemnicy handlowej? czy, a jeżeli tak, to w jakiej mierze prawo powinno wymuszać udostępnianie danych?
Autor poszukuje w książce „złotego środka” między ochroną danych a dostępem do danych, między tragedią wspólnego pastwiska (tragedy of the commons) a tragedią prywatnego zawłaszczania (tragedy of the anticommons), a tym samym – opracowania takich systemów zarządzania danymi prywatnymi oraz publicznymi, które nie budzą wątpliwości z perspektywy konkurencji. Metody wykorzystane w tym poszukiwaniu to przede wszystkim analiza regulacji i orzecznictwa w kontekście ekonomii instytucjonalnej, ekonomicznej analizy prawa oraz oceny skutków regulacji. Rozwiązań, które powinny mieć charakter holistyczny i systemowy, można poszukiwać na pograniczu ekonomii, prawa i zarządzania, co już zostało zapoczątkowane. Równocześnie wyraźnie widoczna jest luka badawcza, gdyż nauka o danych (Data Science) oraz analityka danych (Data Analytics) dotychczas skupiają się głównie na aspektach informatycznych (kodowanie danych, wyszukiwanie danych czy tworzenie baz danych), podczas gdy ekonomia skupia się na niektórych rodzajach danych, w szczególności tych powiązanych z prawami własności intelektualnej i przemysłowej, a regulacja (prawo) koncentruje się na dość jednostronnie rozumianej ochronie prywatności („własności” danych) lub na roli danych w stosowaniu prawa konkurencji.
Ebooka przeczytasz w aplikacjach Legimi lub dowolnej aplikacji obsługującej format:
Liczba stron: 432
Recenzent
prof. dr hab. Witold Chmielarz – Katedra Informatycznych Systemów Zarządzania,
Wydział Zarządzania, Uniwersytet Warszawski
Redakcja
Jadwiga Witecka
Projekt okładki
Amadeusz Targoński | targonski.pl
Skład
Protext
Opracowanie e-wydania
Copyright © 2022 by Poltext Sp. z o.o.
All rights reserved.
Warszawa 2022
Wszelkie prawa zastrzeżone. Nieautoryzowane rozpowszechnianie całości lub fragmentów niniejszej publikacji w jakiejkolwiek postaci zabronione. Wykonywanie kopii metodą elektroniczną, fotograficzną, a także kopiowanie książki na nośniku filmowym, magnetycznym, optycznym lub innym powoduje naruszenie praw autorskich niniejszej publikacji. Niniejsza publikacja została elektronicznie zabezpieczona przed nieautoryzowanym kopiowaniem, dystrybucją i użytkowaniem. Usuwanie, omijanie lub zmiana zabezpieczeń stanowi naruszenie prawa.
Poltext Sp. z o.o.
www.poltext.pl
ISBN 978-83-8175-409-5 (format epub)
ISBN 978-83-8175-410-1 (format mobi)
Droga między społeczeństwem informacyjnym (infomation society) a społeczeństwem opartym na danych (data-driven society) ma daleko idące konsekwencje dla świata. Następuje przejście od społeczeństwa informacyjnego do społeczeństwa opartego na wiedzy (knowledge society), a następnie do społeczeństwa opartego na mądrości (wisdom society). Projekt regulacji o zarządzaniu danymi (Data Governance Act – DGA) jest pozytywnym krokiem w kierunku ułatwienia innowacji opartych na danych. Ma potencjał, aby zrewolucjonizować wymianę danych między organizacjami z korzyścią dla interesariuszy. Zachęca do tworzenia nowej infrastruktury do udostępniania danych, a co za tym idzie – do pomocy w budowaniu jednolitego rynku cyfrowego w państwach członkowskich Unii Europejskiej.
Dane dla gospodarki cyfrowej stały się czynnikiem produkcji, wpływającym na efektywność działalności gospodarczej. Określają także rozwój nowych modeli biznesu. Digityzacja dotyczy zmiany formy informacji z analogowej na cyfrową, digitalizacja (cyfryzacja) – procesów i ról wchodzących w zakres operacji biznesowych, a transformacja cyfrowa – całości: modelu biznesowego i strategii firmy. Transformacja cyfrowa to systemowa zmiana funkcjonowania rynku, konsumentów, przedsiębiorstw i państwa w wyniku wdrożenia technologii cyfrowych i dzięki datafikacji. Datafikacja (danetyzacja) jest definiowana jako proces tworzenia cyfrowych reprezentacji kolejnych obszarów świata rzeczywistego oraz czerpania wartości z pozyskanej w ten sposób informacji. Datafikacja ma doniosłe konsekwencje społeczne i ekonomiczne. Datafikacja tworzy również grunt dla nowych modeli biznesowych rozwijanych przez platformy cyfrowe (FinTechy i BigTechy) (Śledziewska, Włoch 2020).
Ludzie są przystosowani do współpracy, a nowe technologie działają jako wzmacniacz ludzkiego, opartego na współpracy, sposobu myślenia. W polu badań jest nowy rodzaj współpracy, którą umożliwiają technologie sieciowe. To nowe społeczeństwo oparte na współpracy można scharakteryzować jako wiele usług i startupów, które umożliwiają wymianę i interakcje peer-to-peer za pośrednictwem technologii. Powstają pytania: czy ekonomiczne aspekty nowej współpracy mają potencjał, aby uczynić społeczeństwo bardziej sprawiedliwym, czy jest to przykrywka dla niesprawiedliwości społecznej i wyzysku użytkowników. Można pokazać bowiem zarówno pozytywne, jak i negatywne strony istnienia kooperatywnych aspektów nowych technologii.
Koncepcja społeczeństwa współpracy opiera się na oddolnym i długotrwałym współdziałaniu w grupie, której członkowie opracowali określone wzorce relacji dzięki technologii, a którego rola gwałtownie rośnie w ostatnich latach. Oprócz gospodarki, podkreśla się oddziaływanie współpracy także na inne obszary, takie jak związki międzyludzkie, środowisko i kultura. Istnieją pewne ułatwienia, np. mimo iż technologie są coraz bardziej złożone, to interfejsy – coraz prostsze. Rozwiązania np. AI mainstreaming (low-code – no-code) mogą być budowane przez samych użytkowników amatorów (Jemielniak, Przegalińska 2020).
W gospodarce akcent na współpracę kosztem konkurencji, a w istocie – współistnienie kooperacji i konkurencji (kooperencja – koopetycja) jest w polu zainteresowania organów antymonopolowych, których stanowisko w odniesieniu do współpracy w gospodarce opartej na danych ewoluuje: od rygorystycznego do permisywnego. Struktury współpracy w różnych dziedzinach także ulegają ewolucji. Związane z technologią DLT blockchain zdecentralizowane autonomiczne organizacje (Decentralized Autonomous Organizations – DAO) umożliwiają przekazanie zarządzania społeczności. Oznacza to poszerzony przepływ i dostęp do danych oraz zmiany w systemie zarządzania. Kto ma więcej tokenów, ten ma więcej głosów, a zatem większy wpływ na działanie systemu.
Gospodarka cyfrowa jest gospodarką opartą na danych (datafikacja – danetyzacja). Powstaje w związku z tym wiele pytań: czy można mówić o własności danych, czy raczej o problemie dostępu do danych, jak pogodzić ochronę danych z potrzebą ułatwienia udostępniania danych w interesie publicznym (Data Act – DA – DGA), jak te kwestie różnicować w kontekście danych osobowych (GDPR – RODO) i danych ekonomicznych, często powiązanych z ochroną praw własności intelektualnej i przemysłowej, tajemnicy handlowej itp., czy, a jeżeli tak, to w jakiej mierze prawo powinno wymuszać udostępnianie danych, np. gdy utrudniają one szerokie korzystanie z sui generis infrastruktury (Digital Markets Act – DMA i restrykcje nakładane na BigTechy pełniące funkcję „strażników dostępu”).
W zrównoważonym rozwoju kluczową rolę odgrywają innowacje. Ponieważ podążają one często zawiłymi ścieżkami, prawa własności intelektualnej mogą utrudniać dalsze innowacje i spowolnić przejście do zrównoważonego rozwoju przez blokowanie innowacyjnych technologii lub utrudnianie dostępu do nich. Jednak odpowiednio stosowane prawa własności intelektualnej mogą sprzyjać wymianie wiedzy i wspólnemu uczeniu się. Otwarte innowacje – w szczególności otwarte licencjonowanie – mogą wspierać kolejne innowacje, umożliwiając przepływ i łączenie danych wejściowych od różnych podmiotów. Powstaje pytanie, czy niektóre alternatywne sposoby finansowania innowacji – w szczególności pojawiające się rozwiązania oparte na blockchain – mogą odnieść sukces we wspieraniu dalszych innowacji dla zrównoważonego rozwoju (Est ves, Wernick, Carls 2022). Należy się interesować kluczowymi kwestiami na pograniczu AI/IP, w tym modelami biznesowymi liderów innowacji AI, inwentaryzacją/tworzeniem systemów AI, sporami sądowymi na tle sprawy Dabus (autorami wynalazków według urzędów w Europie i USA mogą być tylko ludzie, a w wyścigu o patenty coraz więcej nowinek dotyczy efektów uczenia maszynowego), dyskusją na temat tego, czy nowe rodzaje praw własności intelektualnej są niezbędne do ochrony wynalazków AI, przydziałem uprawnień i odpowiedzialności w odniesieniu do takich innowacji, zmianami związanymi z AI w wytycznych urzędów patentowych, wykorzystaniem przez te urzędy narzędzi AI, potrzebą nowych norm ochronnych (np. w celu wspierania eksploracji tekstów i danych) (Picht, Brunner, Schmid 2022).
Czy prawo konkurencji powinno się interesować dostępem do danych w ramach kontroli karteli, fuzji czy nadużywania dominacji rynkowej, czy może raczej pozostawić te kwestie regulacji datafikacji? Czy próby wprzęgnięcia datafikacji w proces realizacji prawa konkurencji, i to na bardzo wczesnym etapie analizy rynku, gdy ewentualne szkody dla konkurencji jeszcze się wyraźnie nie ujawniają (jak ostatnio w niemieckiej GWB w odniesieniu do BigTechów), nie zagrażają pewności prawnej i bezpieczeństwu obrotu? Należy pamiętać, że takie prognozy mogą być przesłanką zbyt arbitralnych decyzji ingerujących w innowacyjne modele biznesowe i hamujących rozwój rynku nowych technologii, z których mogliby długofalowo skorzystać użytkownicy. Jednocześnie w historii ustawodawstwa antymonopolowego są znane koncepcje ingerencji na wczesnym etapie analizy rynku w celu zapobiegania monopolizacji (tzw. incipiency doctrine w ramach Sherman Act z 1890 r.).
Nowatorski charakter gospodarki opartej na danych wymaga zwrócenia uwagi organów antymonopolowych na konkurencyjne szkody dla innowacji (np. z braku interoperacyjności, z nieprzejrzystości algorytmów, nieudostępniania kluczowych patentów), a nie tylko w kontekście bardziej znanych kategorii: ceny, produkcji i jakości. Egzekwowanie przepisów antymonopolowych jest wymagane, gdy zachowanie biznesowe szkodzi konkurencji przez utrudnianie nowych modeli biznesowych, technologii lub produktów, ale organy egzekwujące prawo muszą być ostrożne, ponieważ zbyt restrykcyjne czy nadmierne działania przeciwko firmom zaangażowanym w badania i rozwój również mogą osłabić innowacyjność.
Możliwe jest poszerzenie regulacji (interpretacji) nadużywania dominacji rynkowej o inne formy zależności ekonomicznej, np. dostęp do danych, w tym także do własności intelektualnej i przemysłowej, ewentualnie zastosowanie – ze względu na par excellence infrastrukturalny charakter ekosystemów platform BigTechów – koncepcji urządzeń kluczowych (essential facility), kategorii użyteczności publicznej (public utilities), nadużywania przewagi kontraktowej czy szacowania kosztu wykluczenia (cost of exclusion).
Dzięki pakietowi Digital Regulation Act (DRA), który obejmuje regulację rynków i usług cyfrowych (Digital Markets Act – DMA; Digital Services Act – DSA), jak również regulację danych (Data Act – DA) i zarządzania danymi (Data Governance Act – DGA), Unia Europejska ustanawia obecnie różne obowiązki w zakresie udzielania dostępu do danych. Prawo konkurencji UE i państw członkowskich zawiera często dodatkowe obowiązki tego rodzaju. Poza kwestiami, czy obowiązki te są uzasadnione lub w przypadku gdy korekty obowiązków przyznawania dostępu wydają się właściwe, transakcje je wdrażające (nakazy udzielenia dostępu do danych) wymagają ram prawnych. W tym celu niezbędny jest przegląd obowiązków w zakresie udzielania dostępu do danych oraz ich roli protransakcyjnej, zgodnie z pakietem DRA, unijnym prawem konkurencji oraz – ciekawym krajowym przykładem niemieckiego prawa konkurencji. Po zdiagnozowaniu, że brak ram specyficznych dla transakcji danych, dla których prawo umów jest zasadniczym, ale nie jedynym filarem, koliduje z rzeczywistymi potrzebami i realiami biznesowymi, analiza zwraca się do zasad licencjonowania praw własności intelektualnej (IPR) i ich zdolności do (częściowego) wypełnienia luki. Rola prawa konkurencji musi wykraczać poza zwykłe porządkowanie dostępu do danych i obejmować nadzór nad tym, czy transakcje dostępu są kształtowane w sposób sprzyjający konkurencji (Picht 2022).
W europejskiej strategii na rzecz danych (COM(2020) 66 final) Komisja Europejska podkreśliła ambicję zdobycia głównej roli w gospodarce opartej na danych. Jednocześnie przyznała, że będzie musiała zwiększyć swoje zasoby wysokiej jakości danych dostępnych do ponownego wykorzystania. W sektorach kreatywnych potrzeba poprawy jakości danych i interoperacyjności jest szczególnie silna. Bez poprawy najprawdopodobniej zostaną utracone możliwości monetyzacji szerokiej gamy kreatywnych treści w państwach członkowskich UE i udostępniania tych treści dla nowych technologii, takich jak systemy sztucznej inteligencji. Chociaż Stany Zjednoczone podjęły już kroki w celu zapewnienia zintegrowanej przestrzeni danych dla muzyki od dnia 1 stycznia 2021 r., UE stoi przed poważnymi przeszkodami nie tylko w dziedzinie muzyki, lecz także w innych sektorach przemysłu kreatywnego. Biorąc pod uwagę koszty i korzyści, nie ma wątpliwości, że nowe inwestycje w lepszą infrastrukturę danych dotyczących praw autorskich powinny odgrywać centralną rolę w polityce UE. System powiadamiania w ramach dyrektywy w sprawie praw autorskich na jednolitym rynku cyfrowym może oferować możliwość łączenia i harmonizowania danych we wspólnym unijnym repozytorium danych dotyczących praw autorskich. Ponadto kompromis między harmonizacją danych i interoperacyjnością z jednej strony, a przejrzystością i rozliczalnością systemów rekomendacji treści z drugiej strony może utorować drogę nowym inicjatywom (Senftleben 2022).
Problemem badawczym niniejszej książki jest poszukiwanie „złotego środka” (można także powiedzieć – równowagi, spójnej z koncepcją zrównoważonego rozwoju) między ochroną danych a dostępem do danych, między tragedią wspólnego pastwiska (tragedy of the commons) a tragedią prywatnego zawłaszczania (tragedy of the anticommons), a tym samym – opracowanie systemów zarządzania danymi prywatnymi oraz publicznymi, które nie budzą wątpliwości z perspektywy konkurencji. Wykorzystane metody to przede wszystkim literatura, regulacja i orzecznictwo, w kontekście ekonomii instytucjonalnej i ekonomicznej analizy prawa – oceny skutków regulacji. Rozwiązań, które powinny mieć charakter holistyczny i systemowy, można poszukiwać na pograniczu ekonomii, prawa i zarządzania, co już zostało zapoczątkowane w literaturze (Ostrom 2013; Ostrom, Basurto 2011). Równocześnie jest wyraźnie widoczna luka badawcza, gdyż nauka o danych (Data Science) oraz analityka danych (Data Analytics) dotąd skupiają się głównie na aspektach informatycznych – kodowania danych, wyszukiwania czy budowy baz danych, ekonomii – na niektórych rodzajach danych, w szczególności powiązanych z prawami własności intelektualnej i przemysłowej, regulacji (prawo) – na dość jednostronnie rozumianej ochronie prywatności („własności” danych) lub na roli danych w stosowaniu prawa konkurencji (Zygmuntowski, Zoboli, Nemitz 2021).
Najpotężniejsze narzędzia analityczne w naukach społecznych doskonale nadają się do badania sytuacji statycznych. Statyczna, mechanistyczna analiza nie jest jednak wystarczająca do zrozumienia zmieniającego się świata, w którym żyjemy. Aby odpowiednio sprostać wyzwaniom społecznym i środowiskowym, istnieje potrzeba opracowania narzędzi analitycznych do analizy sytuacji dynamicznych – zwłaszcza zmian instytucjonalnych (Ostrom, Basurto 2011).
W naukach społecznych nie tylko zmagamy się z wyjaśnieniem procesów zmian instytucjonalnych, lecz także z określeniem, co się zmienia. Kiedy badamy ewolucję instytucjonalną, jesteśmy skupieni na różnych konfiguracjach reguł i norm kształtujących interakcje międzyludzkie. Niektórzy analitycy utożsamiają reguły z tym, co jest zapisane w dokumentach prawnych i jest to tylko jedna z form rejestrowania tego, co urzędnicy chcieliby traktować jako zasady. Wiele reguł jest jednak niepisanych (nieformalnych). Wiele spisanych „praw” nie jest nawet przestrzeganych jako zasady. Ponadto nie wiemy, jakie zasady są akceptowane przez jednostki w ich codziennych interakcjach. W związku z tym zasady wpływające na większość naszego zachowania są stosunkowo niewidoczne, co stanowi wyzwanie dla naszej zdolności do ich identyfikacji i mierzenia. Należy się zatem kierować definicją reguł jako wspólnym zrozumieniem przez uczestników narzuconych norm dotyczących działań (lub wyników) – wymaganych, zabronionych lub dozwolonych.
Niektóre wnioski płynące z analiz instytucjonalnych pokazują, że użytkownicy zasobów, którzy mają względną autonomię w projektowaniu własnych reguł rządzenia i zarządzania, często osiągają lepsze (i bardziej sprawiedliwe) wyniki ekonomiczne niż eksperci czy politycy, którzy robią to za nich. Oprócz szeroko zakrojonych badań terenowych i analiz statystycznych, wykorzystano teorię gier, aby zilustrować, w jaki sposób zasady opracowane przez użytkowników zasobów generują pozytywne wyniki. Ewolucja systemu reguł nie zawsze jest równoznaczna z postępem. Z pewnością ewolucyjne procesy nie pociągają za sobą osądów a priori dotyczących wyniku. Procesy ewolucyjne obejmują jednak generowanie nowych alternatyw, wybór spośród nowych i starych kombinacji cech strukturalnych oraz zachowanie tych kombinacji atrybutów, które są skuteczne w określonym środowisku.
Kapitalizm jest ciągle na skraju kryzysu legitymizacji, ale od czasu do czasu kryzys staje się poważniejszy. Aby zrozumieć kryzys legitymizacji, należy spojrzeć poza szczegóły danej chwili i zastanowić się, dlaczego kryzys się powtarza. Istnieją dwa główne powody: (1) podstawowe instytucje kapitalizmu są trudne do legitymizacji, ponieważ generują różne trudne lub niesprawiedliwe skutki uboczne (w kategoriach niepewności, zakłóceń społeczno-gospodarczych, dystrybucji dochodów czy problemów ekologicznych) oraz (2) szkodliwe instytucje i polityki (od protekcjonizmu po błędną politykę regulacyjną i dysfunkcjonalny federalizm) są stosunkowo łatwe do legitymizacji, ponieważ odwołują się do powszechnie wyznawanych intuicji moralnych.
Instytucje kapitalizmu odpowiedzialne za jego motor wzrostu i innowacji są również odpowiedzialne za różnorodne konsekwencje społeczno-gospodarcze, które wielu ludziom trudno zaakceptować. Państwo opiekuńcze i systemy regulacyjne oferują pewne paliatywne rozwiązania tych problemów, a tym samym przyczyniają się do zwiększenia legitymizacji systemu. Spadek wzrostu w ostatnich dziesięcioleciach znacznie utrudnia obecny problem z legitymizacją, ponieważ mniej zasobów jest dostępnych dla usług publicznych. Co więcej, za spadek wzrostu może częściowo odpowiadać państwo opiekuńcze i regulacyjne. Innymi słowy, mamy obecnie do czynienia z większymi ograniczeniami i większymi niebezpieczeństwami, próbując ponownie legitymizować kapitalizm za pomocą różnych polityk publicznych (Tarko 2021).
Złożona struktura współczesnego społeczeństwa pozwala na większą indywidualną wolność i wybór. Umożliwia zorganizowanie kompleksowego porządku prawnego, zdolnego sprostać dzisiejszym wyzwaniom technologicznym i społecznym na podstawie kilku podstawowych zasad. Pierwsze cztery zasady regulujące interakcje międzyludzkie w życiu społecznym dotyczą autonomii jednostki, własności, umowy i deliktu (czynu niedozwolonego) – po stronie prawa prywatnego. Razem te zasady ustanawiają i chronią spójne prawa do wszystkich zasobów, zarówno ludzkich, jak i naturalnych. Te zasady są powstrzymywane przez dwie inne zasady, które pozwalają na przymusowe transakcje za wypłatą sprawiedliwego odszkodowania, gdy nakazuje to publiczna konieczność, np. cele użyteczności publicznej, a także obrazują kwestie karne czy podatkowe – po stronie prawa publicznego (Epstein 2021).
Środki zaradcze prawa prywatnego zwykle działają prawidłowo, gdy poziom szkody poniesionej przez jedną ze stron jest duży w stosunku do kosztów rozstrzygnięcia sporu. W takich przypadkach przepisy postępowania cywilnego mają na celu zminimalizowanie sumy kosztów administracyjnych i błędów przez solidne zasady ujawniania, procesu i rozstrzygania sporów. Ale kiedy koszty egzekucji na drodze prywatnoprawnej są wysokie w stosunku do korzyści społecznych, właściwą reakcją jest opracowanie środków administracyjnych w celu zmniejszenia kosztów transakcji bez tworzenia nowych praw materialnych, które odbiegają od solidnych rozwiązań systemu prawa prywatnego, wyartykułowanych przez jednego właściciela. Normy prawa prywatnego wprowadzą jedynie nieefektywne rozwiązania, których najlepiej uniknąć, trzymając się jednej zasady: uzasadnienie kosztów transakcyjnych dla regulacji publicznej nie usprawiedliwia przekształcenia uprawnień materialnych ze względu na polityczne ryzyko arbitrażu. Interesy sprzyjają sporom o przejście z systemów prawa prywatnego na systemy prawa publicznego.
Powstaje pytanie, jakie są podstawowe cechy reguł prawnych, które najskuteczniej wspierają dynamiczny, złożony i adaptacyjny system działań gospodarczych? Najważniejszą cechą jest abstrakcja w najogólniejszym znaczeniu. Zasada ogólności pełni zatem dodatkową rolę w ograniczaniu ingerencji państwa w tych obszarach, w których niezależność od celów nie jest w pełni wykonalna. Wprowadza pewien stopień abstrakcji do zasad wykraczających poza te, które obowiązują w tradycyjnych obszarach prawa dotyczących własności, umów i czynów niedozwolonych (Rizzo 2021).
W prawie i ekonomii istnieje literatura analizująca „optymalność” określonych reguł w różnych dziedzinach prawa. Dążenie do optymalności, z indywidualnymi regułami dla każdej sytuacji, może prowadzić do zbyt złożonego systemu. Zawiłości narzucone przez amerykański system regulacyjny tworzą prywatne koszty przestrzegania przepisów, publiczne koszty egzekwowania oraz koszty społeczne związane z niepewnością, które łącznie mogą przewyższyć korzyści płynące z regulacji i osłabić funkcjonowanie systemu rynkowego. Proste reguły stanowią instytucjonalną podstawę szybko rozwijającego się społeczeństwa, zapewniają większy stopień uczciwości, eliminując możliwość specjalnie przyznanych przywilejów, promując sprawiedliwość zakorzenioną w koncepcji równości szans, a nie równości wyników. Stąd znaczenie prostych zasad w dzisiejszym złożonym, spolaryzowanym świecie.
Wątpliwości dotyczą także zastępowania prostych reguł sztuczną inteligencją/uczeniem maszynowym. Sztuczna inteligencja, a zwłaszcza uczenie maszynowe, wymagają ogromnych zestawów danych, które są zarówno drogie, jak i niewystarczająco kompleksowe. Podstawową barierą jest to, że informacje są rozproszone, a agenci nie mają bodźców ani możliwości ujawniania takich informacji na rzecz scentralizowanego mechanizmu, takiego jak algorytm Machine Learning (ML). Dlatego nadal wymagane są instytucje, które mogą agregować zdecentralizowaną i rozproszoną wiedzę (Villaverde 2021). Przestrzeganie zasad niezależnych od celów ułatwia uczenie się oraz adaptację rynku i przepisów w sposób, którego nie zapewniają uznaniowe standardy. W sferze regulacji finansowych reguły niezależne od celów pełnią tę funkcję na trzy sposoby. Po pierwsze, umożliwiają uczestnikom rynku jaśniejsze mechanizmy informacji zwrotnej. Po drugie, wysyłają silne sygnały do uczestników rynku, które złagodzą pojawiające się w tym obszarze problemy związane z pogonią za rentą i pokusą nadużycia. Wreszcie, ułatwiają dynamiczne dostosowania przez uczestników rynku, które mogą pomóc w przywróceniu równowagi w przypadku wystąpienia wstrząsów (Muffarige, Zywicki 2021).
Ceny, w tym zyski i straty, dostarczają zatem podmiotom rynkowym w czasie rzeczywistym informacji o tym, co powinni robić w przyszłości, zachęcając w razie potrzeby do zmian w zachowaniu. Świat gospodarczy jest światem ciągłych zmian, ponieważ strony poszukują równowagi, której nigdy nie można znaleźć. System zawsze dąży do równowagi, ale nigdy jej nie osiąga, ponieważ warunki równowagi zawsze się zmieniają. W tym zmiennym świecie przepisy prawne są ważne dla zapewnienia stabilnych ram, w których strony mogą wiarygodnie przewidywać zachowanie innych i koordynować swoje plany z planami innych oraz realizować oczekiwania. W tym systemie przepisy umożliwiają również największe rozproszenie władzy decyzyjnej na osoby najbliższe informacjom i decyzjom, zapewniając jasne ramy, w których strony mogą zrozumieć zakres dostępnych im działań.
Ramy te podają w wątpliwość wieloletnie podejście systemu regulacyjnego. Od momentu powstania regulatorzy koncentrowali się na celu, jakim jest zapobieganie upadkom poszczególnych banków, aby w ten sposób osiągnąć redukowanie ryzyka systemowego. Robią to zasadniczo przez konstruowanie modeli opartych na równowadze na podstawie najlepszej naukowej analizy domniemanych zagrożeń dla banków i systemu bankowego oraz przez przypisywanie wymogów kapitałowych opartych na ryzyku, narzucanie wymogów dotyczących depozytów zabezpieczających, przeprowadzanie „testów warunków skrajnych”, a także innych zaprojektowanych ćwiczeń matematycznych, aby precyzyjnie kalibrować oraz przewidywać ryzyka i rozwiązania w systemie bankowym.
Rażącym niebezpieczeństwem tego podejścia jest to, że jeśli nawet modele matematyczne są poprawne w odniesieniu do dowolnego banku, ponieważ przy najniższych kosztach minimalizują ryzyko upadłości konkretnego banku, podejście to tworzy również korelację krzyżową w całym systemie bankowym, potęgując w ten sposób wszelkie wstrząsy lub błędy i potencjalnie zmieniając problemy w poszczególnych bankach we wstrząsy systemowe. Jedną z implikacji tego spostrzeżenia jest to, że regulatorzy finansowi nie powinni skupiać się wyłącznie na próbach zapobiegania upadkom banków, co jest nie tylko niemożliwym celem, lecz także może faktycznie zwiększyć ogólne ryzyko systemowe. Powinni również promować odporność lub „antykruchość” systemu finansowego, aby lokalne wstrząsy nie były przenoszone przez cały system i przekształcane we wstrząsy systemowe.
Ale założenie, że regulatorzy znają optymalny bilans banku, pozwala uniknąć ważniejszej kwestii – zmiany na rynkach finansowych nie są statyczne, ale, jak na każdym innym rynku, dynamiczne. W tym sensie po prostu nie można w danym momencie poznać pełnego zakresu zagrożeń i najskuteczniejszego sposobu ich ograniczania. Przez sztuczne narzucanie bankom określonej struktury kapitału regulatorzy tłumią w ten sposób proces sprzężenia zwrotnego rynku, który wynika z rynkowego mechanizmu sukcesu i porażki. Co więcej, może się zdarzyć, że chroniąc poszczególne banki przed upadkiem, regulatorzy tracą informacje, które generuje upadek.
Analogicznie, dzisiejsze podejście do regulacji skupia się na tym, aby każdy bank stał się finansowym odpowiednikiem restauracji serwującej to samo menu o wystandaryzowanej jakości, co z pewnością wyeliminowałoby problem awarii restauracji i wynikających z tego zakłóceń gospodarczych. Ale ta gwarancja tolerowanej jakości za rozsądną cenę wiązałaby się ze znacznymi kosztami, hamując innowacyjność i proces odkrywania różnych lub nowych preferencji konsumentów dla różnych rodzajów żywności lub doświadczeń. Zamiast tego warto rozważyć, czy umożliwienie heterogenicznego podejmowania ryzyka i eksperymentowania na poziomie poszczególnych instytucji finansowych doprowadzi do większej długoterminowej stabilności finansowej, zachęcając do większego uczenia się przez pętle informacji zwrotnej. Przestrzeganie zasad będzie również promować skuteczniejsze regulacje przez ograniczenie problemów związanych z pokusą nadużycia. Problem pokusy nadużycia w regulacjach finansowych wynika z faktu, że politycy prawie zawsze będą mieli do czynienia z krótkoterminową zachętą do ratowania dużych instytucji finansowych, zamiast ryzykować potencjalne skutki upadku dużej instytucji. Zatem tam, gdzie aktorzy polityczni mają swobodę decydowania, rynki będą przewidywać, że uratują upadające firmy.
Jeśli politycy nie zdołają skutecznie zobowiązać się, że nie będą ratować upadającej firmy, rynki stworzą samospełniające się oczekiwanie, że pomoc będzie nadchodziła. Powoduje to problem pokusy nadużycia w odniesieniu do dużych instytucji finansowych, co skłania je do podejmowania nadmiernego ryzyka. Reguły niezależne od celów są antidotum na problemy z pokusą nadużycia. Ponieważ zasady niezależne od celów są abstrakcyjne i ogólne w swoim stosowaniu, regulatorzy i politycy są pozbawieni uznaniowości i nie mogą angażować się w tego rodzaju akcje ratunkowe, które obserwuje się od lat. Reguły niezależne od celów są również bardziej odporne na pogoń za rentą niż reżimy zorientowane na cel. Zachęcając do dyskrecji, zasady zorientowane na cele zachęcają również do arbitralności i podejmowania decyzji bez przestrzegania zasad. To z kolei zachęca poszczególne strony do wywierania wpływu na uznaniowe osądy regulatorów za pomocą wszelkich możliwych środków. Silnik pogoni za rentą działa na paliwie swobody regulacyjnej, ale również opiera się na systemie regulacyjnym, który pozwala organom regulacyjnym promować określone cele, które są zawoalowane w kategorii „dobra publicznego”.
Ponadto złożone standardy regulacyjne stwarzają możliwości wywierania przez grupy interesu wpływu na organy regulacyjne, aby korzystały z tej swobody w sposób sprzyjający indywidualnym firmom lub interesom. Dyskrecjonalność zachęca również regulatorów, którzy mają dużą swobodę w traktowaniu różnych stron, do zachowań polegających na drenażu zysków. Natomiast zasady niezależne od celu zwiększają prawdopodobieństwo, że strony znajdujące się w podobnej sytuacji będą traktowane podobnie, a wszelkie różnice będą dotyczyć kategorii spraw, które są rodzajowo różne.
Problemy spowodowane przez zarządzanie oparte na uznaniowych standardach zamiast reguł ilustrują doświadczenia związane z administrowaniem funduszami przydzielonymi przez Fundusz Uwolnienia Aktywów Trudnych (TARP) podczas kryzysu finansowego. Ustawodawstwo i późniejsze wytyczne, które zostały ogłoszone, określiły wiele rozsądnych czynników, które administratorzy TARP powinni wziąć pod uwagę przy ocenie kwalifikowalności. Analiza wykazała jednak, że wymienione czynniki w niewielkim stopniu wyjaśniały różnicę między tym, które banki otrzymały środki, a które nie. Prawdopodobieństwo, że dany bank z powodzeniem ubiegał się o fundusze TARP, wynikało raczej z czynników politycznych, takich jak historia działalności banku i darowizny na kampanie lub szczególnie dobre jego powiązania polityczne, posiadanie menedżera lub dyrektora, który był pracownikiem Departamentu Skarbu lub Zarządu Rezerwy Federalnej. Wydaje się zatem, że wskazane czynniki były w dużej mierze listkiem figowym do podejmowania decyzji politycznych przez organy regulacyjne.
Wreszcie, zarządzanie według zasad niezależnych od celów będzie sprzyjać przywracaniu równowagi po wstrząsie gospodarczym. Natura kryzysów gospodarczych i finansowych jest często źle rozumiana – wielu uczestników i osób z zewnątrz uważa, że kryzysy finansowe są analogiczne do kryzysów bezpieczeństwa narodowego, wymagają skoncentrowanego, scentralizowanego wysiłku rządu, aby „zrobić” coś z problemem. Jednak takie podejście błędnie pojmuje faktyczną strukturę problemu. Kryzysy wynikają z niewłaściwej alokacji zasobów, czyli miliony zdecentralizowanych uczestników rynku przewidują pewne warunki ekonomiczne, które po prostu się nie urzeczywistniają. Może to przybrać formę swapu stóp procentowych, który nagle staje się znacznie bardziej ryzykowny niż oczekiwano, lub prostej inwestycji kapitałowej w sektor, który nie jest już priorytetowy.
Złagodzenie błędnej alokacji wymaga zatem od każdego z nich zaangażowania się w intensywne zdecentralizowane poszukiwania i planowanie przywrócenia własnej indywidualnej równowagi. Chociaż dynamiczny chaos jest wszechobecną kondycją wszystkich aktorów gospodarczych, podczas kryzysu ten stan chaosu jest jeszcze większy niż zwykle. Ostatnią rzeczą, jaką regulatorzy powinni włączać w ten proces, są ich własne plany, które potencjalnie osłabiają lub wyraźnie podważają cele podmiotów rynkowych. Należy zatem przeciwdziałać dynamice wyboru publicznego, która ogranicza przyjmowanie prostszych zasad w złożonym świecie finansów.
Proste zasady pojawiły się jako przewodnik po polityce pieniężnej w coraz bardziej złożonym świecie. Na początku nie było możliwej do zastosowania alternatywy: złożone modele wydawały się implikować z jednej strony złożone reguły, a z drugiej – brak reguł. Ale badania ostatecznie wykazały, że proste reguły były dobrą alternatywą w teorii i praktyce, i dlatego zaczęto omawiać i stosować proste reguły, takie jak reguła Taylora. Zgodnie z tą regułą stopa funduszy publicznych jest podnoszona lub obniżana stosownie do tego, co dzieje się z realnym produktem krajowym brutto i inflacją. Stanowi ona swoistą receptę na to, jak powinna być prowadzona polityka pieniężna w celu uzyskania jak najlepszych efektów w długim okresie; jest wynikiem rozważań nad kwestią zasadności stosowania uznaniowości (dyskrecjonalności) i reguł w polityce pieniężnej.
Taylor badał zasadność i efekty prowadzenia polityki pieniężnej, opierając się na:
działaniach dyskrecjonalnych – decydenci odpowiedzialni za politykę monetarną przeprowadzają swobodny osąd aktualnej i przyszłej sytuacji gospodarczej. Na jego podstawie podejmują kroki, które stanowią wyłącznie efekt ich samodzielnych rozstrzygnięć, dokonywanych na miarę własnej wiedzy i sumienia. Nie ograniczają ich w tym żadne punkty odniesienia ani konieczność precyzyjnego uzasadnienia tego, co postanawiają;regułach – polityka monetarna jest prowadzona za pomocą pewnego zespołu reguł. Dokonywana przez decydentów ocena sytuacji gospodarczej staje się działaniem bardziej usystematyzowanym, przewidywalnym. Nakierowana zostaje na określone parametry, a z kolei ich wartości zostają powiązane z oczekiwaniem, a nawet wymogiem określonych reakcji.Taylor skrytykował stosowanie działań uznaniowych jako głównego sposobu podejmowania decyzji w polityce pieniężnej. Brak wyraźnych reguł zwiększa skłonność decydentów do podejmowania decyzji korzystniejszych (niekoniecznie dla pieniądza) w danym momencie, gorszych od optymalnych. Istnienie reguł zwiększa odpowiedzialność decydentów, bo w przypadku odstępstwa od nich zmusza do wytłumaczenia się z przyczyn takiego posunięcia. Dyskrecjonalność odsuwa potrzebę ustanowienia celów i planów działania – natomiast właśnie planowanie umożliwia ocenę skutków danej polityki. Konsekwentne trzymanie się reguł polityki podnosi jej wiarygodność, zwiększa się również jej skuteczność. Istnienie reguł oraz ich obecność w świadomości uczestników rynku ogranicza niepewność jego funkcjonowania, daje im bowiem możliwość przewidywania przyszłych decyzji z zakresu polityki pieniężnej.
Wkrótce pojawiły się kolejne zalety prostych zasad. Istnieje wiele dowodów na to, że te proste zasady wpłynęły na rzeczywistą politykę pieniężną w latach 80. i 90. XX w. Ale czasami pojawiały się odchylenia, jak w okresie przed globalnym kryzysem finansowym i kryzysem koronawirusa. Niemniej zainteresowanie prostymi regułami w bankach centralnych jest kontynuowane z wielu powodów. Debata toczy się jednak nadal i nadal potrzebne są dalsze postępy, zwłaszcza w międzynarodowej polityce pieniężnej. Doświadczenia teoretyczne, empiryczne i historyczne rzucają światło na mocne i słabe strony prostych reguł prawnych (Taylor 2021).
Można wyróżnić cztery formy regulacji zarządzania danymi: jako dobra prywatnego, dobra publicznego, dobra wspólnego oraz przez powiernictwo. Kluczowe jest pytanie, jakie są prawa, obowiązki i odpowiedzialność dostawców i odbiorców danych i czy można zbudować pomost regulacyjny między wykorzystaniem komercyjnym danych a ich wykorzystaniem dla dobra wspólnego. Istotne jest podejście do kwestii własności danych i wartości generowanej przez dane przez pryzmat ekonomii i zarządzania. W tym ujęciu można mówić o trzech modelach zarządzania datafikacją: Laissez Faire, Data Trusts i Data Commons (BpB 2019).
Powstaje pytanie, w jaki sposób każdy model radzi sobie z problemami takimi jak: zachęty, konkurencja, innowacyjność i wykonalność. Skandal z Cambridge Analytica jest prawdopodobnie pierwszym z wielu, które pojawiły się w wyniku wykorzystania danych w życiu ludzi. Po skandalu z Facebookiem być może nadszedł czas, aby oprzeć gospodarkę cyfrową na prywatnej własności danych. Konsolidacja danych w prywatnych rękach może mieć wady wzmacniające ruchy takie jak #DeleteFacebook i podnoszące pytania o wpływ danych na społeczeństwo obywatelskie i napięcia, które istnieją między „generatorami” a „zbieraczami” i „użytkownikami” danych. Kluczowe są takie czynniki analizy, jak: struktury bodźców w każdym modelu, przyjęty stosunek do własności danych i zarządzania, sposób tworzenia przez model konkurencji i innowacyjności oraz stopień realnego wdrożenia modelu (Mills 2019).
BigTechy są niekwestionowanymi liderami najcenniejszych firm na świecie. Oferują swoje usługi bezpłatnie, generują dochody głównie ze sprzedaży reklam, które są prezentowane w sposób odpowiedni dla grupy docelowej przez analizę danych użytkowych i tworzenie profili cyfrowych. Kwestie gromadzenia, agregacji, dostępu do danych i wykluczania z dostępu do danych są obecnie głęboko powiązane z kwestiami władzy, które wykraczają poza zwykły marketing rynkowy. Dlatego nowe asymetrie władzy w gospodarce opartej na danych budzą niepokój również w polityce.
Dane jako takie nie muszą być zastrzeżone, jednak mogą być chronione np. jako tajemnice handlowe lub prawem autorskim. Forma prawna własności danych jest sprzeczna z tradycyjnym prawem cywilnym, które przyznaje własność jedynie rzeczom fizycznym, materialnym. Jednak dane są dobrami niematerialnymi, przypominają dobro publiczne, przynajmniej w aspekcie niekonkurencyjnego wykorzystania: zwykle mogą być wykorzystywane prawie nieskończenie często przez wielu aktorów w tym samym czasie, nie podlegają one ani niedoborom, ani zużyciu. Dlatego „nadmierna eksploatacja”, jak w przypadku klasycznych dóbr wspólnych (np. tragedia wspólnego pastwiska), nie występuje w przypadku danych. Dyskusja na temat własności danych dotyczy zatem przede wszystkim praw dostępu do danych i reguł ich usuwania.
Ponieważ każdy rodzaj zautomatyzowanej analizy danych jest uzależniony od danych wcześniej generowanych przez ludzi, to właśnie tam leży rzeczywiste źródło wartości w cyfrowym świecie. Na przykład usługi tłumaczeniowe online opierały się na tłumaczeniach wykorzystujących uczenie maszynowe, które wcześniej wykonywali ludzie. Jednak praca ta nie pojawia się w żadnym bilansie firmy i jest również wyłączona z rachunków ekonomicznych. Ignorowanie tego faktu może zostać powstrzymane tylko wtedy, gdy ludzie nie będą już postrzegani tylko jako konsumenci, ale staną się podmiotami gospodarki opartej na danych, tj. prosumentami (forma hybrydowa między producentami a konsumentami).
Czynnik ludzki jako twórca danych musi być wyraźnie włączony do ekonomicznego łańcucha wartości. Zdaniem Laniera nie powinno być tak, że wielka liczba ludzi wytwarza ogromne ilości cennych informacji za pośrednictwem sieci społecznościowych i wyszukiwarek, ale lwia część wartości trafia do firm, które gromadzą, agregują i przetwarzają dane. Dane staną się jeszcze ważniejsze w miarę postępu technologii sztucznej inteligencji. Należy myśleć o danych jako o nowym sposobie dostarczania wartości przez ludzi (Edge 2008; CNBC 2018).
Dlatego Lanier opowiada się za systemem mikropłatności: każdy aktywnie lub pasywnie wygenerowany wkład w cyfrową bazę danych lub sieć powinien być wynagradzany w formie niewielkiej kwoty. Dzięki przechowywaniu pochodzenia danych, powiązaniu danych z ich twórcą, każdy dostęp i każde użycie danych powinno być rejestrowane, a odpowiednia ilość powinna być automatycznie przekazywana od użytkownika danych na konto cyfrowe dostawcy danych. Każdy powinien sam zdecydować, jakie dane oferować na rynku i za jaką cenę. Rynek reguluje podaż i popyt. Państwo może monitorować przestrzeganie zasad i sankcjonować wszelkie naruszenia. Jednocześnie Lanier wzywa do odejścia od mentalności wolnego dostępu do danych. Czasy, w których zażądano, aby wszystkie informacje były swobodnie dostępne w internecie, to już historia. Ustanowienie rynku danych lub takiej „gospodarki pay-per-view” oznacza, że Lanier ostatecznie postrzega dane jako dobro prywatne. Deklarowanym celem jest ustanowienie suwerennego prawa każdej osoby do swoich danych osobowych. Oczekuje większego samostanowienia i upodmiotowienia dostawców danych, a także zmniejszenia asymetrii siły rynkowej.
Lanier nadal postrzega rynek jako centralny organ koordynujący, ale wzywa autorów danych do zaangażowania się w ten system. Chciałby jednak nie tylko, aby wkład był idealnie wyceniony, lecz także materialnie włączony w łańcuch wartości. Tworzy w ten sposób rodzaj modelu podaży i popytu na dane osobowe i sugeruje, że indywidualni użytkownicy mogliby w ten sposób zdobyć siłę rynkową.
W przypadku podejmowania indywidualnych decyzji w sprawie udostępnienia danych wydaje się, że nie zostało to przemyślane do końca. Nieustanne podejmowanie indywidualnych decyzji o udostępnieniu danych szybko doprowadziłoby do zatłoczenia: dzisiaj, gdy odwiedza się jedną witrynę, wiele połączeń z zewnętrznymi domenami internetowymi jest nawiązywanych m.in. za pomocą plików cookie, prosument musiałby rozpocząć negocjacje cenowe z każdym z tych podmiotów przetwarzających dane. A nawet gdyby ktoś miał zautomatyzować negocjacje za pośrednictwem izby danych, określając swoje preferencje dotyczące tego, komu za pieniądze i za jaką cenę chciałby udostępniać dane, wiązałoby się to z wysokimi kosztami transakcji. Dodatkowo wątpliwe jest, czy użytkownicy faktycznie uzyskaliby siłę przetargową, ponieważ asymetria siły rynkowej pozostaje – siła przetargowa platformy byłaby nadal znacznie większa.
Ponadto wartość dodana danych tkwi w ich agregacji i ocenie, a nie w pojedynczej informacji. Model Laniera jest również wątpliwy z punktu widzenia społeczno-politycznego: mikropłatności mogą kusić słabych finansowo użytkowników do wyrażenia zgody na nieetyczne wykorzystywanie danych przez osoby trzecie lub na śledzenie dużej części ich codziennego życia. Ochrona danych nie powinna jednak zależeć od możliwości finansowych. Co więcej, wielu dostawców danych może przeceniać wartość swoich danych – i ma tendencję do niedoceniania konsekwencji, jakie ma dla nich udostępnienie danych. Według wyliczeń za ujawnienie poszczególnych danych przypadałyby tylko ułamki centa. Nawet gdyby obroty firmy (przychody z reklam) zostały przydzielone wszystkim użytkownikom, wynik wyniósłby np. tylko 8 euro rocznie dla Facebooka i około 150 euro dla Google – minus koszty utrzymania platformy.
Istnieją inne pytania bez odpowiedzi dotyczące obsługi. Lanier zaprzecza, jakoby infrastruktura rozliczeniowa dla mikropłatności stworzyła gigantyczną sieć nadzoru o proporcjach Orwella. Na koniec pojawia się pytanie, jak chciałby widzieć realizowane przez niego uprawnienia nadzorcze, kontrolne i sankcyjne, jakie przypisuje państwu. Ponieważ jego model opiera się wyłącznie na prawie cywilnym między sprzedawcami danych a ich nabywcami. Lanier oczywiście ma na myśli tylko państwa demokratyczne, a nie te autorytarne lub skorumpowane, które mogłyby czerpać zyski z rynku danych lub wykorzystywać je do hipernadzoru. Nawet jeśli jest pozytywne uznanie wkładu twórców danych, model rynku danych Laniera okazuje się ogólnie nieadekwatny, trudny do operacjonalizacji, ponieważ wywołałby całą serię niezamierzonych konsekwencji.
Propagowanym kontrmodelem dla rynku danych jest podejście publicysty Jewgienija Morozowa, który chce widzieć dane jako dobro publiczne. Technologia oparta na danych kryje w sobie zarówno zagrożenia, jak i potencjał dla społeczeństwa. Rejestrowanie ludzkich zachowań w czasie rzeczywistym i profile pozbawione nadmiaru danych, jeśli są stosowane prawidłowo, mogą przyczynić się do bardziej efektywnego wykorzystania zasobów, zrównoważonego rozwoju i odpowiednich innowacji. Niepokój Morozowa nie jest więc krytyką technologii, ale polityczno-ekonomiczną krytyką „kapitalizmu zorientowanego na dane” opartego na „ekstraktywizmie danych” (Schüll 2013).
Dlatego Morozow opowiada się za uspołecznieniem danych gromadzonych wcześniej przez firmy i ich zrozumieniem w ramach usług użyteczności publicznej: dane musiałyby zostać oddzielone od dynamiki rynku, a gromadzenie danych handlowych ograniczone. Regulowane przez państwo części danych przechowywanych na profilach cyfrowych mogłyby być wykorzystywane w anonimowej formie przez władze publiczne w celu skuteczniejszego dostosowania oferty usług, takich jak częstotliwość lokalnego transportu publicznego do potrzeb populacji. W ten sposób inne usługi w zakresie transportu, edukacji, zaopatrzenia w energię i ochrony zdrowia również mogłyby stać się bardziej wydajne, innowacyjne i użyteczne. Prywatne firmy mogą nadal oferować spersonalizowane usługi, o ile płacą za wykorzystanie danych. Potrzebne do tego bazy danych mogą znajdować się na poziomie miejskim, krajowym lub nawet ponadnarodowym. Dane krajowe mogą np. gromadzić się w krajowym funduszu danych, którego współwłaścicielem są wszyscy obywatele. Ktokolwiek chce budować nowe usługi na podstawie tych danych, musiałby to zrobić w konkurencyjnym, ściśle regulowanym środowisku, płacąc odpowiednią część swoich zysków za korzystanie z nich (Morozov 2011, 2014).
Szerszy dostęp do danych osobowych, ale anonimowych mógłby również rozwiązać obecny problem monopolistycznej pozycji kilku dużych firm, ponieważ innowacyjne startupy mogłyby budować konkurencyjne alternatywy przez dostęp do danych. Wizją Morozowa jest zatem publiczne, zorientowane na interes publiczny wykorzystanie danych za pomocą regulacji publicznej w celu koordynacji dostępu do danych i ochrony przed niewłaściwym wykorzystaniem. Taki system powinien być również finansowany z podatków lub obowiązkowej składki wszystkich obywateli. W każdym razie gromadzenie danych reklamowych i handlowych nie powinno już być pośrednim środkiem płatności za korzystanie z takich usług.
Model danych Morozowa jako dobra publicznego jest ostatecznie nacjonalizacją danych. Pozostaje niejasne, czy chce widzieć tę socjalizację na poziomie gminnym, regionalnym, krajowym czy nawet ponadnarodowym – czy też zorganizowaną na zasadzie sektorowej, np. dla danych dotyczących energii lub ruchu. Byłoby z pewnością pozytywne, gdyby zapewniło to małym i średnim firmom równe szanse dostępu. Scentralizowane zarządzanie danymi publicznymi może również ułatwić społecznie odpowiedzialne i zorientowane na zrównoważony rozwój badania i innowacje.
Ale jak można sobie radzić z wielokrotnym wykorzystaniem danych? Bo z każdej analizy danych wyłania się nowa „warstwa danych” – czy ona też powinna być uwzględniona w państwowej puli danych, czy może być wykorzystywana prywatnie? Propozycja Morozowa milcząco implikuje model centralizacji, który można zaprojektować realnie za pomocą centralnej bazy danych lub wirtualnie, łącząc różne zdecentralizowane bazy danych. W obu przypadkach pojawia się pytanie, czy obywatele nadal powinni mieć możliwość wyrażenia zgody na gromadzenie danych. W jakiej mierze jest celowa dobrowolność i utrzymanie informacyjnego samostanowienia? Czy w każdym przypadku istnieje określony cel, czy też obywatele powinni wyrażać zgodę bez informowania o różnych celach użytkowania? Byłby to znaczący krok wstecz pod względem ochrony danych. Docelowo oznaczałoby to, że obywatele są zobowiązani do przekazywania danych, a ich dane są społecznie obowiązkowe. Można stworzyć pewien środek zaradczy przez pseudonimizację i szyfrowanie danych. Ale czy rzeczywiście gromadzenie danych rządowych powinno zostać rozszerzone na usługi internetowe?
Ponadto istnieje ryzyko nadużyć ze strony państwowej inwigilacji i represji, aż do całkowitej utraty prywatności włącznie. Na koniec pojawia się również pytanie o regulację: przez które państwo lub agencję państwową powinno to być realizowane? Czy państwo narodowe może w ogóle działać, jeśli chodzi o transnarodowe przepływy danych? A kto decyduje o udostępnieniu danych i komu, według jakich demokratycznie określonych i ewentualnie prawnie zakwestionowanych kryteriów? Jakie sankcje powinny zostać nałożone w przypadku nadużycia? Czy nacjonalizacja danych powinna nastąpić dopiero po pewnym czasie, czy retrospektywnie? Czy to byłoby naruszanie własności firmy i w jakim stopniu jest to konstytucyjnie dopuszczalne?