Strona główna Rozrywka Plany Doge dotyczące zastąpienia ludzi AI są już w toku

Plany Doge dotyczące zastąpienia ludzi AI są już w toku

20
0

Jeśli masz wskazówki dotyczące refleksji rządu federalnego, skontaktuj się z Matteo Wong na @Matteowong.52.


Nowa faza prezydenta i rządowy Departament Efektywności próbuje zmniejszyć wielkość i powtórzenie służby cywilnej. Pomysł jest prosty: użyj ogólnej, aby zautomatyzować pracę wykonaną wcześniej przez ludzi.

Rząd Trumpa testuje nowy chatbot z 1500 federalnymi pracownikami zarządzania usługami ogólnymi i może zwolnić go całej agencji, gdy tylko w ten piątek -co oznacza, że ​​może być zużyta przez ponad 10 000 pracowników odpowiedzialnych za ponad 100 miliardów dolarów umów i usług. Ten artykuł jest częściowo oparty na rozmowach z kilkoma aktualnymi pracownikami i np. Wiedzy technologicznej, z prośbą o anonimowość o rozmowę o poufnych informacjach; Opiera się również na wewnętrznych dokumentach GSA, które sprawdziłem, a także na bazie kodu oprogramowania, który jest widoczny w GitHub.

Bot, który przywództwo GSA jest obramowanie jako czynnik produktywności dla pracowników federalnych, jest częścią szerszej instrukcji Doge i jego sojuszników. Mówiąc o szerszych planach GSA, Thomas Shedd, były Tesla-Agent, który został niedawno zainstalowany jako dyrektor ds. Usług transformacji technologii (TTS), powiedział oddział IT GSA na spotkaniu wszystkich rąk w zeszłym miesiącu, że agencja naciska na „pierwszą strategię”. Na spotkaniu, które uzyskałem, Shedd powiedział, że „gdy zmniejszamy ogólną wielkość rządu federalnego, jak wszyscy wiedzą, wciąż istnieje mnóstwo programów, które muszą istnieć, co jest świetną okazją do technologii i automatyzacji, aby uzyskać pełną siłę”. Zasugerował, że „agenci kodowania” mogą być dostarczane w całym rządzie – odniesienie do programów AI, które mogą pisać i prawdopodobnie wdrażać kod zamiast człowieka. Ponadto, Shedd powiedział, AI może „przeprowadzić analizę kontraktową”, a oprogramowanie może być użyte do „automatyzacji„ funkcji finansowych ”GSA.

Mały zespół technologii GSA o nazwie 10X rozpoczął opracowywanie programu podczas mandatu prezydenta Joe Biden i początkowo wyobrażał sobie, że nie jest to narzędzie produktywności, ale jako pole testowania AI: miejsce do wypróbowania modeli AI dla zastosowań federalnych, podobnie jak prywatne firmy tworzące wewnętrzne narzędzia AI. Ale sojusznicy Doge naciskali na przyspieszenie rozwoju narzędzi i wszczepienie go jako chatbot masowych zwolnień (dziesiątki tysięcy pracowników federalnych zrezygnowało lub zwolniło od czasu, gdy Elon Musk rozpoczął swój napaść w rządzie). Pierwsza premiera Chatbota była pierwsza zauważony umieścić PołączonyAle więcej szczegółów na temat jego szerszego wydania i poprzedniego rozwoju oprogramowania nie zostało zgłoszone przed tą historią.

Program -który był krótko nazywany „GSAI” i jest teraz znany wewnętrznie jako „czat GSA” lub po prostu „czat” -został opisany jako narzędzie do pisania i e -maili, pisania kodu, „i nie tylko!” W e -mailu wysłanym przez Zacha Whitmana, dyrektora GSA AI, do niektórych z pierwszych użytkowników oprogramowania. Wewnętrzny przewodnik dla pracowników federalnych zauważa, że ​​GSA Chatbot „pomoże Ci pracować skuteczniej i wydajniej”. Interfejs bota, który widziałem, wygląda i podobny do interfejsu Chatgpt lub dowolnego podobnego programu: użytkownicy wpisują wiersz i program odpowiedzi. GSA ostatecznie uruchamia sztuczną inteligencję do innych agencji rządowych, potencjalnie pod nazwą „ai.gov”. Obecnie system umożliwia użytkownikom wybór między licencjonowanymi i antropicznymi modelami licencjonowanymi i chociaż zespół agencji nie może przesyłać dokumentów do Chatbot, prawdopodobnie będą mieli zgodę w przyszłości, zgodnie z pracownikiem GSA z wiedzą i repozytorium kodu chatbota. Program może być wykorzystany do planowania projektów rządowych na dużą skalę, poinformowania o tym lub konsultacji scentralizowanych federalnych repozytoriów danych, powiedział mi pracownik GSA.

Brama Doge -Gas nie dociera, a biuro prasowe Białego Domu skierowało mnie do GSA. W odpowiedzi na szczegółową listę pytań, Will Powell, pełniący obowiązki sekretarza GSA, napisał w oświadczeniu i e -mail, że „GSA prowadzi obecnie przegląd swoich dostępnych zasobów informatycznych, aby zapewnić, że nasz zespół może wykonać swoją misję wspierającą amerykańskich podatników” oraz że agencja „wykonuje naszą siłę roboczą w celu zweryfikowania” naszej pracy na naszą efektywność.

W tym momencie często używa AI do pracy, a GSA Chatbot może nie mieć dramatycznego wpływu na działalność rządową. Ale to tylko niewielki przykład znacznie większego wysiłku, ponieważ Doge nadal zdziesiątkowa służbę publiczną. W Departamencie Edukacji konsultanci Doge mają drugi Karmione poufne dane dotyczące wydatków agencyjnych na programy AI w celu zidentyfikowania lokalizacji do cięcia. DOŻA drugi Zamierza użyć sztucznej inteligencji, aby pomóc w ustaleniu, czy pracownicy w całym rządzie powinni zachować pracę. Podczas kolejnego spotkania TTS pod koniec ubiegłego tygodnia – nagranie, z którego recenzuję – Shedd powiedział, że spodziewa się, że oddział będzie „co najmniej 50 % mniejszy” w ciągu tygodni. (TTS mieści zespół, który zbudował czat GSA.) I niewątpliwie bardziej kontrowersyjne możliwości sztucznej inteligencji pojawiają się na horyzoncie: na przykład Departament Stanu planuje wykorzystać technologię, aby pomóc w przeglądaniu postów w mediach społecznościowych dziesiątek tysięcy studentów, aby departament mógł odwołać wizyty utrzymane przez studentów, którzy poparli, że wyznaczone grupy poparły to, że wyznaczone grupy poparły to, że wyznaczone grupy poparły to Axios.

Uruchomienie generatywnego uruchomienia AI niesie ze sobą dobrze ustalone ryzyko. Modele AI wykazują wszystkie rodzaje uprzedzeń, walczą z dokładnością faktyczną, są drogie i mają nieprzejrzyste prace wewnętrzne; całkiem On może I On robi Niewłaściwe, nawet gdy przyjęto więcej podejść technologicznych. GSA wydawała się świadoma tej rzeczywistości, gdy początkowo zaczęła pracować nad swoim chatbotem zeszłego lata. To wtedy 10x, mały zespół technologii GSA zaczął rozwijać tak zwaną „piaskownicę 10x AI”. Zgodnie z bazą programu na przykładzie Github-by Github-by Github-by Github-by Github-by Github-by Github-by Github-by Github-by Github-by Extion Pracownicy do zbadania AI może pomóc w ich pracy, według bazy programu na przykładzie programu na przykładzie programu na przykładzie Github-by Github-by. „Zasady tego jest pokazanie, że sztuczna inteligencja jest świetna dla wszystkiego, próbując zachęcić ją do przyklejenia AI do wszystkich produktów, z którymi możesz się zgodzić” – powiedział 10 -krotny inżynier we wczesnym filmie demonstracyjnym dla Sandbox, „ale zapewnia prosty sposób szybkiego interakcji z tymi narzędziami i prototypami”.

Ale osoby wyznaczone przez Donalda Trumpa zmusiły do ​​szybkiego wydania oprogramowania jako asystenta czatu, najwyraźniej bez większego zastanowienia, że ​​aplikacje technologiczne mogą być opłacalne. AI może być użytecznym asystentem dla pracowników federalnych w określony sposób Wynalazaj precedensowe prawneNie jest to dobrze. Jako niedawno zepsuty pracownik GSA powiedział: „Chcą wybrać dane kontraktowe w AI, aby je przeanalizować pod kątem potencjalnego oszustwa, co jest świetnym celem. A także, gdybyśmy mogli to zrobić, już to zrobilibyśmy. „Zastosowanie sztucznej inteligencji stwarza„ bardzo wysokie ryzyko sygnalizacji fałszywych pozytywów ”, powiedział pracownik,„ i widzę, że nic nie jest uważane za kontrolę. ” Strona pomocy dla pierwszych użytkowników narzędzia do czatu GSA obserwuje obawy, w tym „halucynacja” – termin branżowy na zaufanie do fałszywych informacji jako prawdziwych – „stronnicze odpowiedzi lub utrwalone stereotypy” i „pytania dotyczące prywatności” i instruuje pracowników, aby nie podejmowali możliwych do identyfikacji informacji lub wrażliwych informacji. Ponieważ którekolwiek z tych ostrzeżeń zostanie zastosowane, nie zostało określone.

Oczywiście agencje federalne od wielu miesięcy doświadczają IA generatywne. Na przykład przed listopadem GSA rozpoczęła umowę z Google w celu przetestowania, w jaki sposób modele AI „mogą poprawić wydajność, współpracę i wydajność”, zgodnie z zapasami publicznymi. Departamenty bezpieczeństwa wewnętrznego, zdrowia i usług ludzkich oraz problemów weteranów, a także niezliczonych innych agencji federalnych, były narzędziami testowymi z Openai, Google, Anthropic i innych przed inauguracją. Jakiś federalny chatbot był prawdopodobnie nieunikniony.

Ale niekoniecznie w tej formie. Biden przyjął bardziej ostrożne podejście technologiczne: w kamieniu milowym Zarządzenie wykonawcze A późniejsza orientacja federalna poprzedni rząd podkreślił, że użycie AI przez rząd musi podlegać kompletnym testom, sztywnym poręczom i przejrzystości publicznej, biorąc pod uwagę oczywiste ryzyko i braki technologii. Trump, pierwszego dnia urzędowania, odwołał to zamówienie, a Biały Dom później powiedzenie To narzuciło „kosztowną i niepotrzebną kontrolę rządu”. Teraz Doge i rząd Trumpa wydają się zamierzać wykorzystać cały rząd federalny jako piaskownicę i ponad 340 milionów Amerykanów, którzy służą jako możliwe problemy z testem.

Source link

ZOSTAW ODPOWIEDŹ

Proszę wpisać swój komentarz!
Proszę podać swoje imię tutaj