AI na Snapchacie: większe bezpieczeństwo i przejrzystość oraz poprawione przepisy

16 kwietnia 2024 r.

Gdy nakładki pojawiły się w 2015 r., technologia rzeczywistości rozszerzonej (AR) ożywiła na naszych oczach magię, rewolucjonizując to, co uważaliśmy za możliwe. Obecnie średnio ponad 300 milionów Snapchatterów korzysta z AR każdego dnia, ponieważ spodziewamy się tego typu technologii w naszym codziennym doświadczeniu z kamerą. 

Teraz najnowsze postępy w dziedzinie sztucznej inteligencji otwierają nieograniczone i zapierające dech w piersiach możliwości, ponownie modyfikując to, co uważaliśmy za możliwe. 

Snapchatterzy mogą wyrazić siebie za pomocą sztucznej inteligencji, niezależnie od tego, czy tworzą oryginalną tapetę czatu generatywnej sztucznej inteligencji, aby spersonalizować wygląd rozmowy ze znajomym, przekształcając się w pomysłowy sposób za pomocą nakładek opartych na sztucznej inteligencji, czy poznają świat poprzez rozmowy z My AI. Bardzo cieszy nas potencjał tej technologii, który może wspomóc naszą społeczność w dalszym rozwijaniu kreatywności i wyobraźni. 

Przejrzystość AI

Uważamy, że Snapchatterzy powinni być informowani o używanych przez nich technologiach, niezależnie, czy tworzą fajne grafiki, czy uczą się przy pomocy tekstowych rozmów z My AI.

Używamy kontekstowych ikon, symboli i etykiet w aplikacji, aby zapewnić Snapchatterom przejrzystość kontekstową, gdy wchodzą w interakcję z funkcją opartą na technologii AI. Na przykład, gdy Snapchatter udostępnia obraz Marzenia wygenerowany przez AI, odbiorca widzi kartę kontekstową z większą ilością informacji. Inne funkcje, takie jak narzędzie Rozszerzanie Snapów, które wykorzystuje AI do powiększania Snapa, są określane jako funkcja AI z ikoną iskry dla Snapchattera, który tworzy Snapa.

Dokładamy również wszelkich starań, aby sprawdzić wszystkie reklamy polityczne w drodze rygorystycznego procesu weryfikacji przez ludzi, w tym dokładnego sprawdzenia pod kątem wszelkich wprowadzających w błąd treści, w tym sztucznej inteligencji do tworzenia zwodniczych obrazów lub treści. 

Wkrótce do obrazów generowanych przez AI dodamy znak wodny. Pojawi się na obrazach utworzonych za pomocą narzędzi generatywnej sztucznej inteligencji Snapa, gdy obraz zostanie eksportowany lub zapisany do rolki z aparatu. Odbiorcy obrazu wygenerowanego przez AI na Snapchacie mogą zobaczyć małe logo ducha z powszechnie rozpoznawalną ikoną iskry obok niego. Dodanie tych znaków wodnych pomoże poinformować użytkowników, że obraz został wykonany za pomocą AI na Snapchacie. 

Standaryzowane testy i protokoły bezpieczeństwa

Jesteśmy odpowiedzialni za tworzenie produktów i doznań, które na pierwszym miejscu stawiają prywatność, bezpieczeństwo oraz dostosowanie treści do wieku - traktujemy to bardzo poważnie. Podobnie jak wszystkie nasze produkty, funkcje oparte na sztucznej inteligencji zawsze były poddawane ścisłej weryfikacji, aby upewnić się, że są zgodne z naszymi zasadami zachowania prywatności - a dzięki naszym doświadczeniom opracowaliśmy dodatkowe zabezpieczenia:

Red-Teaming

Red-teaming AI jest coraz powszechniejszą taktyką wykorzystywaną do testowania i identyfikowania potencjalnych wad w modelach AI i funkcjach z obsługą AI oraz wdrażania rozwiązań w celu poprawy bezpieczeństwa i spójności wyników AI. 

Od dawna stosujemy nowatorskie metody Red-Teamingu dla generatywnych modeli obrazów, współpracując z HackerOne przez ponad 2500 godzin pracy, aby przetestować skuteczność naszych surowych zabezpieczeń. 

Filtrowanie bezpieczeństwa i spójne etykietowanie

W miarę jak rozszerzyliśmy doświadczenia z obsługą Generatywnej AI na Snapchacie, ustanowiliśmy zasady odpowiedzialnego zarządzania i poprawiliśmy nasze ograniczenia dotyczące bezpieczeństwa. 

Stworzyliśmy proces oceny bezpieczeństwa, aby wykryć i usunąć potencjalnie problematyczne podpowiedzi na najwcześniejszych etapach opracowywania nakładek AI zaprojektowanych przez nasz zespół. Wszystkie nasze nakładki AI, które generują obraz na podstawie monitu, przechodzą ten proces, zanim zostaną sfinalizowane i staną się dostępne dla naszej społeczności. 

Testy włączające

Chcemy, aby Snapchatterzy ze wszystkich środowisk mieli sprawiedliwy dostęp i oczekiwania podczas korzystania ze wszystkich funkcji naszej aplikacji, w szczególności z naszych doświadczeń opartych na AI. 

Mając to na uwadze, wdrażamy dodatkowe testy, aby zminimalizować potencjalnie stronnicze wyniki AI. 

Dalsze zaangażowanie w umiejętność czytania i pisania AI

Wierzymy w ogromny potencjał technologii AI w zakresie poprawy zdolności naszej społeczności do wyrażania siebie i łączenia się ze sobą - i jesteśmy zobowiązani do dalszego ulepszania tych protokołów dotyczących bezpieczeństwa i przejrzystości. 

Chociaż wszystkie nasze narzędzia AI, zarówno tekstowe, jak i wizualne, zostały zaprojektowane tak, aby nie tworzyć nieprawidłowych, szkodliwych lub wprowadzających w błąd materiałów, nadal mogą występować błędy. Snapchatterzy mogą zgłaszać treści i my doceniamy ich opinię. 

Wreszcie, w ramach tego stałego zaangażowania w pomaganie naszej społeczności lepiej zrozumieć te narzędzia, mamy teraz dodatkowe informacje i zasoby na naszej stronie Wsparcia.

Powrót do Aktualności