Raport z sympozjum na temat następnej dekady sztucznej inteligencji

Wspieranie możliwości przy jednoczesnym regulowaniu ryzyka | 5 sierpnia 2024 r.

Wstęp

Generatywna sztuczna inteligencja ("generative AI")[1] szybko zmienia krajobraz sztucznej inteligencji. W przeciwieństwie do modeli sztucznej inteligencji, które manipulują danymi do zadań takich jak klasyfikacja, generatywna sztuczna inteligencja tworzy zupełnie nowe treści - tekst, obraz, dźwięk i wideo. Istnieje wiele sposobów, w jakie ta technologia może pomóc ludziom, od wykonywania rutynowych zadań administracyjnych po pomoc w rozwoju medycyny. Chociaż stwarza to ekscytujące możliwości, istnieje kilka zagrożeń związanych z tą technologią. Ważne jest, aby w porę zająć się tym ryzykiem, zanim będzie za późno.

Niebieskie okręgi modelują ze sztuczną inteligencją na zewnątrz okręgu, uczeniem maszynowym wewnątrz sztucznej inteligencji, głębokim uczeniem wewnątrz uczenia maszynowego i generacją sztucznej inteligencji w centrum.

Rysunek 1: Generatywna sztuczna inteligencja to podzbiór sztucznej inteligencji, który wyłonił się dzięki rozwojowi uczenia maszynowego.

12 kwietnia 2024 r. Biuro Prokuratora Generalnego Stanu Nowy Jork (OAG) zorganizowało konferencję „Następna dekada generatywnej sztucznej inteligencji: wspieranie możliwości przy jednoczesnej regulacji ryzyka”. To prywatne sympozjum zgromadziło czołowych naukowców, decydentów, rzeczników i przedstawicieli branży w dyskusjach panelowych, aby omówić główne możliwości, a także zagrożenia związane z technologią sztucznej inteligencji, zwłaszcza generatywną sztuczną inteligencją. Celem była pomoc OAG w opracowaniu strategii ograniczania tego ryzyka przy jednoczesnym zapewnieniu, że Nowy Jork pozostanie w czołówce innowacji. Chociaż generatywna sztuczna inteligencja była przedmiotem szczególnego zainteresowania, prelegenci zajmowali się również bardziej tradycyjną technologią sztucznej inteligencji, taką jak technologia automatycznego podejmowania decyzji.[2]

Niniejszy raport przedstawia najważniejsze wnioski, jakie wyciągnęliśmy z sympozjum. Jego celem jest dzielenie się spostrzeżeniami z innymi decydentami i agencjami rządowymi oraz ułatwianie publicznego dialogu na temat opracowywania prawnych i politycznych podejść do technologii sztucznej inteligencji. 

Szanse i zagrożenia 

W ciągu dnia prelegenci zidentyfikowali kilka obszarów, w których technologia sztucznej inteligencji, w tym generatywna sztuczna inteligencja, może przynieść znaczące korzyści dla społeczeństwa, a także główne zagrożenia, jakie stwarza ta technologia. 

Zastosowania w opiece zdrowotnej

Technologia sztucznej inteligencji ma potencjał do poprawy opieki zdrowotnej. Uczestnicy sympozjum dyskutowali o tym, w jaki sposób sztuczna inteligencja może być wykorzystywana do wczesnego wykrywania chorób; odkrywania leków; monitorowania trendów w zdrowiu publicznym; zadań administracyjnych, które mogą złagodzić wypalenie zawodowe lekarzy; oraz medycyny precyzyjnej, która obejmuje tworzenie spersonalizowanych planów leczenia w oparciu o informacje, takie jak profile genetyczne i kliniczne. 

Narzędzia sztucznej inteligencji były już wykorzystywane do pomocy w obrazowaniu medycznym, dzięki czemu skany były szybsze i tańsze. Narzędzia te mogą pomóc klinicystom w selekcji poprzez sprawdzanie obrazów medycznych w celu zidentyfikowania potencjalnie pilnych kwestii do priorytetowego przeglądu przez lekarza. Modele sztucznej inteligencji są teraz szkolone, aby pójść o krok dalej i pomóc w wykrywaniu chorób. Prelegent omówił narzędzie AI, które może przeglądać mammogramy i identyfikować nieprawidłowości, które mogą sygnalizować ryzyko raka piersi do pięciu lat przed rozwojem raka, umożliwiając wcześniejszą interwencję i potencjalnie lepsze wyniki.[3] Prelegenci zgodzili się, że takie narzędzia AI powinny być wykorzystywane do wspomagania pracy klinicystów, a nie do jej zastępowania.

Na froncie administracyjnym sztuczna inteligencja jest obecnie wykorzystywana do odciążenia lekarzy, na przykład poprzez transkrypcję rozmów z pacjentami. Lekarz omówił próby wykorzystania technologii generatywnej sztucznej inteligencji do podsumowania historii pacjentów, aby pomóc klinicystom zobaczyć istotne informacje, które w przeciwnym razie mogłyby zostać utracone w obszernych notatkach. Prelegent zauważył, że narzędzia generatywnej sztucznej inteligencji mogą również tworzyć odpowiedzi na proste pytania pacjentów za pośrednictwem czatu i mogą świadczyć usługi tłumaczeniowe. Zauważył, że w miarę rozwoju technologii narzędzia AI mogą stale działać w otoczeniu szpitala. Na przykład, narzędzia nagrywające mogą być używane do transkrypcji rozmów z pacjentami lub narzędzia monitorujące mogą stale obserwować parametry życiowe w pokojach pacjentów. Takie narzędzia mogłyby być potencjalnie wykorzystywane w domach pacjentów, na przykład wideo do monitorowania aktywności pacjenta. 

Rozwój ten wiąże się jednak z ryzykiem. Dane medyczne są szczególnie wrażliwe. Pacjenci mogą nie rozumieć, jakie dane są gromadzone lub w jaki sposób są wykorzystywane przez narzędzia sztucznej inteligencji, zwłaszcza gdy takie narzędzia są stale uruchamiane w ich salach szpitalnych, a nawet w domach. Oprócz tych obaw dotyczących prywatności, istnieją również poważne obawy dotyczące nierównego dostępu. Grupy mniejszościowe są niedostatecznie reprezentowane w danych klinicznych wykorzystywanych do tworzenia spersonalizowanych planów leczenia, a usługi transkrypcji AI nie obejmują obecnie szerokiego zakresu języków lub akcentów. Aby skutecznie korzystać z narzędzi sztucznej inteligencji w tak wrażliwym kontekście, prelegenci zauważyli, że musi być zaangażowany człowiek, który ponosi ostateczną odpowiedzialność i jest przygotowany do podejmowania decyzji, kiedy zaufać narzędziom sztucznej inteligencji, a kiedy je zakwestionować.

Informacje i dezinformacja

Narzędzia sztucznej inteligencji, w tym chatboty oparte na generatywnej sztucznej inteligencji, mogą pomóc ludziom łatwo znaleźć informacje. Na przykład, są one już wykorzystywane do uzupełniania niektórych linii telefonicznych, takich jak 311, publiczne usługi niezwiązane z nagłymi wypadkami i obsługa klienta korporacyjnego. Takie wykorzystanie chatbotów może zwolnić operatorów telefonicznych, którzy będą mogli skupić się na świadczeniu konkretnych usług i odpowiadaniu na skomplikowane pytania. Ponadto narzędzia generatywnej sztucznej inteligencji mogą zautomatyzować tłumaczenie, umożliwiając rządom i firmom lepszą komunikację z ludźmi w ich językach ojczystych i zapewniając lepszy dostęp do informacji. 

Jednak, jak zauważyło wielu prelegentów, technologia ta jest daleka od doskonałości. Generatywna sztuczna inteligencja jest notorycznie podatna na wyciąganie błędnych wniosków lub "halucynacji" i udzielanie fałszywych odpowiedzi. Chatboty generujące sztuczną inteligencję mogą zatem udostępniać ludziom nieprawidłowe informacje, co czyni je wadliwym narzędziem do dostarczania informacji opinii publicznej. Te chatboty mogą również fabrykować historie o ludziach, co może powodować szkody emocjonalne i reputacyjne. 

Ponadto generatywna sztuczna inteligencja może być wykorzystywana przez złe podmioty do celowego tworzenia materiałów dezinformacyjnych, takich jak deepfakes. Przepisy dotyczące zniesławienia i oszustwa zapewniają pewne środki odwoławcze, ale nie odnoszą się do pełnego zakresu problemu, zwłaszcza że podróbki stają się coraz bardziej realistyczne i trudniejsze do wykrycia. Prelegenci zauważyli, że wykorzystanie generatywnej sztucznej inteligencji w dezinformacji będzie głównym powodem do niepokoju w nadchodzących miesiącach przed wyborami powszechnymi, ponieważ źli aktorzy mogą stworzyć zalew dezinformacji, których nie można odpowiednio sprawdzić na czas. Przytoczyli przykłady dźwiękowych i wizualnych deepfake'ów, które mogłyby mieć poważne reperkusje, gdyby ludzie uwierzyli, że są prawdziwe, takie jak robocall imitujący kandydatów na prezydenta, który zachęcał ludzi do niegłosowania w prawyborach,[4] zdjęcia byłego prezydenta Trumpa obejmującego dr Fauci,[5] i obraz eksplozji w Pentagonie, która na krótko zakłóciła rynki.[6]

Zadania administracyjne i zautomatyzowane podejmowanie decyzji

Narzędzia AI mogą być pomocne w usprawnieniu wielu zadań administracyjnych, szczególnie w przypadku agencji rządowych. Przykładowo, urzędnik rządowy przedstawił możliwości wykorzystania generatywnej sztucznej inteligencji do obliczania zobowiązań podatkowych, generowania publicznych materiałów edukacyjnych i pisania kodu komputerowego. 

Jednym z powszechnych zastosowań technologii AI jest pomoc w weryfikacji wniosków, co może znacznie usprawnić te procesy. Na przykład, korzystając z narzędzi sztucznej inteligencji do automatycznej identyfikacji osób kwalifikujących się do usług lub świadczeń, agencje rządowe mogą szybciej i wydajniej dystrybuować te usługi i świadczenia do wyborców.

Oczywiście korzystanie z narzędzi AI do wstępnego sprawdzania aplikacji wiąże się również z ryzykiem. Wiele firm korzysta z narzędzi przesiewowych AI do zatrudniania, potencjalnie wprowadzając stronniczość algorytmiczną. Jeden z badaczy zauważył, że niektóre firmy mogły zacząć korzystać z narzędzi sztucznej inteligencji przy zatrudnianiu w celu wyeliminowania niesprawiedliwości i ukrytych uprzedzeń nieodłącznie związanych z ludzką oceną. Prelegenci przytaczali jednak liczne dowody na to, że narzędzia sztucznej inteligencji często wzmacniają, a nie korygują uprzedzenia. Na przykład algorytmy przeszkolone na podstawie danych z poprzednich rekrutacji mogą wzmacniać ludzkie uprzedzenia odzwierciedlone w poprzednich decyzjach o zatrudnieniu i utrwalać istniejące normy. Czarny charakter algorytmów AI sprawia, że trudno jest zrozumieć, czy i jak działają narzędzia AI, co utrudnia zapewnienie uczciwości w podejmowaniu decyzji. W rzeczywistości jeden z mówców argumentował, że najlepiej jest założyć, że narzędzia AI domyślnie dyskryminują. 

Obawy dotyczące danych

Ponieważ generatywne modele sztucznej inteligencji są szkolone na bezprecedensowo dużych zbiorach danych, jakość, ilość i uczciwe wykorzystanie danych szkoleniowych budzą szereg obaw. Kluczową kwestią są prawa autorskie, ponieważ firmy wykorzystują w swoich modelach chronione prawem autorskim artykuły, obrazy i filmy zebrane z całego Internetu bez wynagradzania twórców za ich pracę. Kwestie związane z prawami autorskimi zyskały dużą uwagę opinii publicznej i są obecnie przedmiotem sporów sądowych. Inną kluczową kwestią, omówioną w kontekście opieki zdrowotnej w poprzedniej sekcji, jest niedostateczna reprezentacja grup mniejszościowych w danych szkoleniowych. W rezultacie narzędzia generatywnej sztucznej inteligencji mogą tworzyć wyniki, które przynoszą korzyści tylko niektórym grupom. 

Istnieją również inne obawy dotyczące danych, którym nie poświęcono tak wiele uwagi, takie jak dostępność danych wykorzystywanych do trenowania modeli sztucznej inteligencji. Generatywne modele AI potrzebują ogromnych ilości danych do treningu. W rezultacie firmy, które od lat bezpłatnie skrobały sieć, mają ogromną przewagę nad nowymi graczami na rynku sztucznej inteligencji. Jest to szczególnie prawdziwe, ponieważ platformy i dostawcy treści zaczęli blokować swoje dane i zawierać umowy licencyjne na wyłączność. Sytuacja ta budzi obawy, że rynek skoncentruje się wokół zaledwie kilku graczy, tłumiąc konkurencję i dalsze innowacje, podczas gdy technologia jest wciąż w powijakach. 

"Demokratyzacja danych" lub zachęcanie do swobodnego przepływu danych może pozwolić na większą innowacyjność. Oczywiście wszelkie takie inicjatywy powinny być zrównoważone obawami o prywatność, zwłaszcza w odniesieniu do danych wrażliwych. Ponieważ firmy poszukują dodatkowych danych do szkolenia, modele coraz częściej wykorzystują własne dane wyjściowe do szkolenia, zwane "danymi syntetycznymi". Wykorzystanie danych syntetycznych może wzmocnić problemy, szczególnie w przypadku halucynacji, i ostatecznie spowodować, że modele staną się bardziej podatne na błędy ("załamanie modelu"). 

Istnieją również obawy dotyczące generatywnych narzędzi sztucznej inteligencji generujących treści, które są fałszywe, stronnicze lub w inny sposób problematyczne, ponieważ model został wyszkolony na danych, które same w sobie były wadliwe. Jest to często określane jako problem "garbage in, garbage out". Ponieważ przejrzystość działania modeli sztucznej inteligencji jest niewielka, jeden z prelegentów zwrócił uwagę na obawy dotyczące wyników, które mogły zostać przeszkolone na podstawie niedokładnych danych (np. farsowych artykułów), nieodpowiednich danych (np. klas chronionych, takich jak rasa lub płeć) lub danych tajnych (np. tajemnic handlowych). Inny prelegent ostrzegł, że nieodpowiednia ochrona prywatności danych treningowych może pozwolić narzędziom generatywnej sztucznej inteligencji na wyciek danych osobowych lub ponowną identyfikację danych niezidentyfikowanych w ich wynikach.      

czerwona ikona kosza na śmieci ze strzałką skierowaną w prawo do niebieskiego okręgu AI z innym wskazującym w prawo do czerwonej ikony kosza na śmieci

Rysunek 2: Śmieciowe dane na wejściu powodują śmieciowe dane na wyjściu. 

Strategie łagodzenia skutków 

Przez cały dzień prelegenci sugerowali szereg strategii skutecznego wykorzystania generatywnej sztucznej inteligencji przy jednoczesnym ograniczaniu ryzyka związanego z tą technologią.

Publiczna adopcja i edukacja

Wiele osób jest nadmiernie przekonanych, że narzędzia AI rozwiążą wiele problemów, a jednocześnie podejrzliwych wobec tych samych narzędzi, co zniechęca do wdrażania AI w wielu sferach. Jednak narzędzia AI, zwłaszcza generatywne narzędzia AI, ze względu na swój charakter wymagają przyjęcia i testowania w celu ulepszenia. Istnieje również pewna edukacja, która odbywa się poprzez adopcję. Pomaga ludziom zrozumieć, jak działa technologia AI, zarówno pod względem jej zastosowań, jak i ograniczeń, a także pomaga rozwiać powszechne mity. Kilku prelegentów ostrzegło, że w przypadku wysoce ryzykownych zastosowań technologii AI ważne jest, aby mieć "człowieka w pętli", co oznacza aktywne zaangażowanie człowieka w konfigurowanie, testowanie i dostosowywanie modeli AI. Jednak w scenariuszach o niższym ryzyku szersze zastosowanie narzędzi AI może pomóc w przygotowaniu pracowników do pełnienia takich ról. 

Były decydent wskazał, że ponieważ generatywna sztuczna inteligencja jest technologią ogólnego przeznaczenia o nieznanych jeszcze zastosowaniach, konsumenci muszą zrozumieć tę technologię i rozwijające się aplikacje, aby upewnić się, że nie są podatni na nadużycia, takie jak oszustwa phishingowe. Prelegenci omówili również znaczenie zaangażowania publicznego i zapewnienia społeczeństwu sposobów wyrażania opinii i przekazywania informacji zwrotnych na temat przypadków użycia sztucznej inteligencji, w tym w zakresie zatrudniania i wykorzystania przez rząd. 

Większa edukacja publiczna na temat generatywnej sztucznej inteligencji ma kluczowe znaczenie dla złagodzenia skutków potencjalnych nadużyć. Jak wspomniano wcześniej, wiele osób spodziewa się, że generatywne narzędzia sztucznej inteligencji odegrają ważną rolę w rozpowszechnianiu dezinformacji przed wyborami. Prelegenci podkreślali, że edukacja publiczna w zakresie identyfikowania treści generowanych przez sztuczną inteligencję powinna być najwyższym priorytetem przed wydarzenia, takie jak wybory.   

Przejrzystość i audyt

Przez cały dzień prelegenci wielokrotnie wzywali do większej przejrzystości w korzystaniu ze sztucznej inteligencji. Co najważniejsze, konsumenci powinni wiedzieć, kiedy wchodzą w interakcję z generatywnymi narzędziami AI i kiedy napotykają treści generowane przez AI. W tym celu prelegenci zalecili dodanie jasnych informacji dla konsumentów na różne sposoby: zasady korzystania z danych w prostym języku, które wyjaśniają, jakie dane są gromadzone i dlaczego, w jaki sposób będą chronione i jak będą wykorzystywane; powiadomienie podczas komunikacji z chatbotem, co jest już wymagane przez prawo w niektórych stanach; oraz wyraźne etykiety lub znaki wodne na treściach generowanych przez sztuczną inteligencję. Podczas gdy niektórzy twierdzą, że znaki wodne mogą być łatwe do zmanipulowania przez wyrafinowanych złych aktorów, jeden z prelegentów zauważył, że nadal byłoby to korzystne w większości okoliczności i przynajmniej spowolniłoby złych aktorów celowo próbujących oszukać ludzi. W związku z tym wielu prelegentów domagało się solidnej struktury znakowania wodnego.   

Obecnie istnieje niewielka przejrzystość w zakresie tego, w jaki sposób modele AI są kontrolowane. Z natury algorytmy sztucznej inteligencji nie są przejrzyste, dlatego audyt tradycyjnych narzędzi AI często koncentruje się na ocenie tworzonych wyników w celu zidentyfikowania kwestii, takich jak stronniczość. Prelegenci zauważyli jednak, że audyty są w dużej mierze przeprowadzane ad hoc, a firmy i badacze mogą nie wyjaśniać, w jaki sposób je przeprowadzają. Aby rozwiązać tę kwestię, prelegenci wezwali do opracowania jasnych standardów i procedur dotyczących modeli audytu. 

Istnieją pewne precedensy dla takich standardów, takie jak ustawa lokalna miasta Nowy Jork nr 144[7] i jego przepisy wykonawcze, które określają minimalne wymagania dotyczące audytu stronniczości, który należy przeprowadzić w przypadku korzystania z technologii automatycznego podejmowania decyzji (ADMT) przy zatrudnianiu. Podobnie, instytucje finansowe opracowały solidne programy zgodności z zasadami uczciwych pożyczek, które oceniają i zarządzają stronniczością w algorytmicznych ramach gwarantowania. Ponadto jeden z mówców zauważył, że audyt powinien być dostosowany do kontekstu. Na przykład, podczas audytu modelu pod kątem dezinformacji wyborczej, komisarz wyborczy powinien udzielić fachowych wskazówek na temat tego, które informacje są, a które nie są prawidłowe. Drugi mówca zasugerował stworzenie profesjonalnych certyfikatów dla audytorów algorytmów, aby zwiększyć zaufanie do procesu. Wreszcie, trzeci mówca wezwał do większego dostępu dla zewnętrznych badaczy do audytu modeli sztucznej inteligencji. 

Prawa konsumentów

Konsumenci powinni czuć się wzmocnieni, jeśli chodzi o narzędzia AI. Były urzędnik rządowy zacytował plan Białego Domu dotyczący ustawy o prawach AI[8] jako dobre miejsce do rozpoczęcia wysiłków na rzecz ustanowienia jasnych praw konsumentów. Plan określa pięć obszarów, w których konsumenci powinni mieć zapewnioną ochronę przed narzędziami AI, w tym bezpieczeństwo, dyskryminację i prywatność danych. Ponadto, plan odnosi się do znaczenia przejrzystości i przyznania użytkownikom prawa do rezygnacji z korzystania z ADMT na rzecz ludzkiego decydenta. 

Plan Białego Domu dotyczący sztucznej inteligencji: po pierwsze: bezpieczne i skuteczne systemy, po drugie: algorytmiczna ochrona przed dyskryminacją, po trzecie: prywatność danych, po czwarte: powiadomienie i wyjaśnienie, po piąte: ludzkie alternatywy, rozważenie i informacje zwrotne.

Rysunek 3: Plan Białego Domu dotyczący Karty Praw AI określa pięć kluczowych zasad.[9]

Kalifornia przyjmuje obecnie podobne zasady w swoich przepisach dotyczących ADMT. Urzędnik stanu Kalifornia szczegółowo omówił proces tworzenia przepisów, w tym znaczenie zapewnienia konsumentom możliwości rezygnacji z korzystania z ADMT przy podejmowaniu ważnych decyzji lub przynajmniej możliwości odwołania się od takich decyzji do wykwalifikowanego ludzkiego decydenta. 

Regulacja i nadzór

Podczas gdy technologia zmienia się szybko, może się wydawać, że przepisy prawne podążają za nią powoli, ale prelegenci omówili wiele istniejących przepisów, które mają zastosowanie do korzystania z technologii AI. Przepisy dotyczące dyskryminacji, swobód obywatelskich, prywatności, bezpieczeństwa danych, zniesławienia, oszustw, oszustw i konkurencji mogą być wykorzystane do ograniczenia niektórych potencjalnych szkód związanych z technologią AI. Prelegenci zwrócili również uwagę na wysiłki Nowego Jorku mające na celu uregulowanie szkód wyrządzanych przez algorytmy, takie jak omówiona wcześniej ustawa lokalna 144 miasta Nowy Jork oraz ustawa SAFE for Kids,[10] która reguluje zdolność platform mediów społecznościowych do prezentowania dzieciom uzależniających algorytmicznych kanałów. 

Prelegenci ogólnie zgodzili się, że rząd musi mieć większy nadzór nad technologią sztucznej inteligencji, nawet bez doskonałego zrozumienia tej technologii. Rząd może regulować wykorzystanie narzędzi sztucznej inteligencji przez agencje i wykorzystywać zamówienia publiczne jako dźwignię regulacyjną, na przykład poprzez rozporządzenie wykonawcze Białego Domu w sprawie bezpiecznego i godnego zaufania rozwoju i wykorzystania sztucznej inteligencji.[11] oraz zarządzenie Kalifornii w sprawie wykorzystania generatywnej sztucznej inteligencji przez ten stan.[12]

Prelegenci mieli jednak różne poglądy na temat tego, jak podejść do szerszej regulacji technologii AI. Niektórzy opowiadali się za przyjęciem kompleksowej ustawy, takiej jak ustawa Unii Europejskiej o sztucznej inteligencji (EU AI Act), [13] która tworzy szerokie ramy regulacyjne oparte na ryzyku i ustanawia scentralizowaną agencję nadzorującą technologię sztucznej inteligencji. Inni mówcy argumentowali, że taki model nie jest odpowiedni w Stanach Zjednoczonych i zamiast tego opowiadali się za regulacją i nadzorem podzielonym na sektory i obsługiwanym przez oddzielne agencje. Oznaczałoby to na przykład, że Departament Zdrowia i Opieki Społecznej mógłby być głównym regulatorem kwestii technologii AI związanych z opieką zdrowotną. 

Ta ostatnia grupa zauważyła, że rozproszone uprawnienia pozwoliłyby agencjom na zwinniejsze dostosowywanie przepisów do zmieniających się technologii i pozwoliłyby na większą konkurencję i innowacje. Zwolennicy kompleksowego systemu regulacyjnego przeciwstawiali się temu, że regulacje sektorowe wraz z przepisami stanowymi i lokalnymi mogą uzupełniać szerokie ramy. W szczególności lider organizacji rzeczniczej ostrzegł, aby nie wierzyć, że musimy wybierać między ostrożną adopcją a innowacjami, ponieważ obowiązkiem rządu jest maksymalizacja obu. 

Rozwój i obszary wymagające dalszych badań 

Od czasu sympozjum nastąpiły znaczące zmiany w zakresie regulacji technologii AI. Nowy Jork uchwalił omówioną wcześniej ustawę SAFE for Kids Act, która jest ważnym krokiem w kierunku ochrony dzieci przed algorytmicznymi szkodami w Internecie. 

Inne jurysdykcje również były aktywne w ostatnich miesiącach. W maju Kolorado uchwaliło ustawę o sztucznej inteligencji, [14] która, podobnie jak unijna ustawa o sztucznej inteligencji, nakłada obowiązki w zakresie korzystania z narzędzi sztucznej inteligencji w oparciu o ryzyko szkód dla konsumentów. W tym samym miesiącu Senat USA wydał mapę drogową dla polityki AI, która wzywa do przeznaczenia 32 miliardów dolarów na innowacje w zakresie sztucznej inteligencji i przepisy uzupełniające istniejące przepisy, które mają zastosowanie do technologii AI.[15] W lipcu Federalna Komisja Handlu, Departament Sprawiedliwości Stanów Zjednoczonych oraz organy ochrony konkurencji UE i Wielkiej Brytanii wydały wspólne oświadczenie określające zasady ochrony konkurencji w ekosystemie sztucznej inteligencji.[16]

Ponieważ jednak Nowy Jork przygotowuje się do stawienia czoła zagrożeniom związanym z technologią sztucznej inteligencji, a zwłaszcza generatywną sztuczną inteligencją, istnieją kwestie wymagające dalszego zbadania i zrozumienia. Na przykład, wielu prelegentów wzywało do wprowadzenia standardów audytu algorytmicznego, ale nie ma zgody co do odpowiedniego standardu ani sposobu, w jaki podejścia audytorskie stosowane w tradycyjnych narzędziach sztucznej inteligencji mogą zostać przyjęte do audytu generatywnych modeli sztucznej inteligencji. W podobnym duchu nie ma zgody co do tego, jak opracować solidne ramy znakowania wodnego dla treści generowanych przez sztuczną inteligencję. Ponieważ tego typu kwestie wymagają specjalistycznej wiedzy technicznej, pozostają pytania o to, jak zapewnić zaangażowanie odpowiednich osób w opracowywanie takich standardów i ram. 

Ponadto, jak wspomniano wcześniej, nie ma zgody co do odpowiednich ram regulujących technologię sztucznej inteligencji, w tym właściwego poziomu centralizacji. OAG aktywnie monitoruje skuteczność różnych ram regulacyjnych, takich jak unijna ustawa o sztucznej inteligencji, aby informować o przyszłych propozycjach legislacyjnych i regulacyjnych.  

OAG będzie nadal słuchać i uczyć się o tej rozwijającej się technologii i odpowiednich sposobach zachęcania do innowacji przy jednoczesnej ochronie nowojorczyków.  

[1] Generatywna sztuczna inteligencja to podzbiór sztucznej inteligencji (AI), który generuje treści takie jak tekst, obrazy, audio i wideo na podstawie podpowiedzi. Modele generatywnej sztucznej inteligencji są trenowane na ogromnych zbiorach danych i zostały opracowane dzięki postępom w głębokim uczeniu się, podzbiorze uczenia maszynowego. Źródłem informacji na temat podstaw sztucznej inteligencji i uczenia maszynowego jest Abail, I.E. i in. (2023). Poradnik technologiczny dla decydentów: Sztuczna inteligencja & Uczenie maszynowe. Belfer Center for Science and International Affairs. 

[2] Odniesienia do "narzędzi AI", "modeli AI" i "technologii AI" w tym raporcie mogą odnosić się do tradycyjnych modeli uczenia maszynowego lub kombinacji tradycyjnego uczenia maszynowego i generatywnej technologii AI.

[3] Yala, A. i in. (2021, 27 stycznia). W kierunku solidnych modeli ryzyka raka piersi opartych na mammografii. Science Translational Medicine, 13(578).

[4] Astor, M. (2024, 23 maja). Konsultant polityczny, który zaaranżował fałszywe rozmowy telefoniczne z Bidenem, został oskarżony. The New York Times. 

[5] Nehamas, N. (2023, 8 czerwca). Kampania DeSantis wykorzystuje pozornie fałszywe obrazy do atakowania Trumpa na Twitterze. The New York Times. 

[6] Marcelo, P. (2023, 23 maja). Fact Focus: Fałszywy obraz eksplozji w Pentagonie na krótko wywołuje niepokój na giełdzie. Associated Press

[7] Kodeks administracyjny miasta Nowy Jork, sekcja 20-870 i nast.

[8] Biuro Polityki Naukowej i Technologicznej, Biuro Wykonawcze Prezydenta. (2022, październik). Blueprint for an AI Bill of Rights. 

[9] Zob. uwaga 8.

[10] New York General Business Law, sekcja 1500 i następne. Ustawa SAFE for Kids była rozpatrywana przez ustawodawcę w czasie sympozjum, a następnie została uchwalona 20 czerwca 2024 roku.

[11] Rozporządzenie wykonawcze nr 14110, 88 Fed. Reg. 75191 (2023, 30 października).

[12] Rozporządzenie wykonawcze Kalifornii N-12-23 (2023, 6 września).

[13] Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2024/1689 z dnia 13 czerwca 2024 r. ustanawiające zharmonizowane przepisy dotyczące sztucznej inteligencji i zmieniające rozporządzenia (WE) nr 300/2008, (UE) nr 167/2013, (UE) nr 168/2013, (UE) 2018/858, (UE) 2018/1139 i (UE) 2019/2144 oraz dyrektywy 2014/90/UE, (UE) 2016/797 i (UE) 2020/1828 (ustawa o sztucznej inteligencji).

[14] Sekcja 6-1-1706 i następnezmienionego statutu stanu Kolorado .

[15] Dwupartyjna senacka grupa robocza ds. sztucznej inteligencji. (2024, maj). Napędzanie amerykańskich innowacji w dziedzinie sztucznej inteligencji: A Roadmap for Artificial Intelligence Policy in the U.S. Senate. 

[16] Federalna Komisja Handlu. (2024, 23 lipca). Wspólne oświadczenie w sprawie konkurencji w zakresie generatywnych modeli i produktów AI Foundation.