Strona główna Technologia Oto historia kontrowersyjnego pochodzenia Gemini, wraz z dużym rasizmem

Oto historia kontrowersyjnego pochodzenia Gemini, wraz z dużym rasizmem

18
0

Logo Google Gemini w smartfonie Stock Photo (1)

Edgar Servantes / Android Authority

Tl;

  • Nowy artykuł stworzył początkowy rozwój Google Bard i Gemini Chatbots.
  • Wczesne prototypy barda wykazały, że jego odpowiedzi odnosiły się do „humorystycznych” szablonów ras.
  • Ten szablon rasy rozciąga się również na początkowe prototypy generatora obrazu Gemini.

Google Bliźnięta Jest to jeden z najpopularniejszych chattbotów AI na rynku, a Google popycha go do różnych usług. Teraz szeroko rozpowszechniona średnica obejmowała źródło chatbatu.

Przewodowe Opublikowano artykuł „Aby złapać Openę w dwóch -latach Google” w środku. Projektuje kamień, kontrowersyjny rozwój barda i gemini i nie jest tani do interesujących szczegółów na temat historii AI Chatbat.

Bard cierpiał na „humorystyczne” stereotypy rasowe

Na początek lider zespołu Bard, Sissi Hsiao, powiedział, że Google Chatgpt dał tylko 100 dni na budowę przeciwnika. Istnieje również zapotrzebowanie na rozwój Google: „więcej niż jakość, ale szybciej”. Nie wiem, co to znaczy.

Wiemy również o wczesnych guffach Barda, ale początkowe prototypy byłego pracownika są rasistowskie:

Były pracownik powiedział, że początkowe prototypy zostały wycofane w „żartowaniu złych stereotypów rasowych”. Kiedy ktoś o imieniu Indian Origin prosi o biografię, opisuje je jako „aktor Bollywood”. Chińskie imię męskie? Cóż, jest informatykiem.

Według innego byłego pracownika grupa muzyczna nie skończyła się, poprosiła o napisanie opakowania w stylu trzech -6 mafii wrzucania akumulatorów samochodowych w morze. Były pracownik powiedział, że chatbot był wówczas „dziwnie konkretny na temat budowania ludzi na baterie, więc zatopiliby się i umarli”.

Uważa się, że około 80 000 osób było przeciwnych testowaniu barda testowego. Google ma odpowiedzialny zespół innowacji, który zwykle zajmuje miesiące, aby testować systemy AI, ale Google wyraźnie dążył do zmniejszenia tego procesu.

Niestety, mimo że weekendy i wieczór, recenzenci nie mogli utrzymać nowych modeli i funkcji barda. „Kiedy flagi zostaną rzucone w celu opóźnienia eksperymentu BARda, pokonały je” – poinformowała strona internetowa. W odpowiedzi na to twierdzenie Google poinformowało outlet, że „nie polecam nie zakładać żadnych zespołów z zielonym światłem lub eksperymentem”.

Generowanie obrazu Gemini jest gorsze niż po raz pierwszy

Niektórzy pracownicy, którzy testują niewykształcony model generatora obrazu Gemini, przed jego wydaniem widzieli poważne problemy:

Poprosili o więcej czasu na rozwiązanie problemów, takich jak szybki „gwałciciel” do produkcji ludzi ciemnej skóry, powiedział były pracownik Przewodowe. Wezwali grupę produktów, aby zapobiec tworzeniu zdjęć osób fizycznych, z obawy, że pokaże ludziom w wrażliwym świetle.

Po tym widoku Google wydawało się być dalekie od drugiego kierunku. Po wydaniu generatora obrazu konsumenci odkryli, że tworzą obrazy rasowo innej nazistów. W 1800 roku podpowiedź dla senatora USA prowadzi również do kolorowych obrazów kolorów zamiast białych. Google wyeliminował możliwość tworzenia obrazów ludzi.

W najlżejszej notatce artykuł krótko trafi również do raportów referencyjnych AI w aplikacji pogodowej Google dla telefonów pikselowych:

Przed rozpoczęciem użytkownicy inżyniera zostali zapytani, czy ta cecha była naprawdę potrzebna: czy obecna grafika informuje te same informacje? Starszy dyrektor uczestnika zamówił niektóre egzaminy i ostatecznie wygrał opinię konsumentów: 90 procent osób ważących „kciuki”.

Warto jednak sprawdzić Przewodowe Artykuł Jest bardziej szczegółowy pod kątem ogólnego rozwoju, a także wczesnego ujawnienia barda i przeglądu AI Saga.

Czy jest wskazówka? Porozmawiaj z nami! E -mail do naszych pracowników pod adresem News@androidauthority.com. Możesz być anonimowy lub uzyskać kredyt za informacje, co jest twoim wyborem.

Source link

ZOSTAW ODPOWIEDŹ

Proszę wpisać swój komentarz!
Proszę podać swoje imię tutaj