Gdy Dawid DuBoisweteran armii amerykańskiej i emerytowany dyrektor ochrony fizycznej policji Kapitolu Stanów Zjednoczonych, u którego w 2022 r. zdiagnozowano SLA, jego rodzina przez ponad 24 miesiące nie słyszała go.
Firma Voice AI Dobrze powiedziane udało się wykorzystać mniej niż 40 minut starej poczty głosowej i filmów, aby stworzyć własny głos, który pasował do autentycznego głosu DuBoisa — głos pełen emocji i humoru, zawierający jego ulubioną frazę: „dobijasz mnie, Smalls”.
WellSaid twierdzi, że ostatecznie chce skupić się na sztucznej inteligencji, która ma wspierać ludzkość, a nie ją zastępować.
Podczas pracy w Instytut Ai2 Paula Allenanon-profitowe centrum badawcze, które bada możliwości sztucznej inteligencji, Miksail Pietroczuk opracował algorytm realistycznego głosu AI — zaledwie trzy miesiące po ukończeniu University of Washington. Tam Petrochuck poznał Matta Hockinga, przyszłego współzałożyciela WellSaid.
Petrochuk, który identyfikuje się jako autystyczny, zainspirował się, aby zamienić swoje wyzwania w możliwości. WellSaid był jednym ze sposobów, w jaki starał się wywierać pozytywny wpływ na świat.
„Urodziłem się z większą liczbą przewodów w mózgu niż inni ludzie. Oznacza to, że mój mózg pracuje na najwyższych obrotach, myśląc, przetwarzając i czując” — powiedział Petrochuk. „Często przedstawiam pomysły, których wiele osób nie dostrzega. W całej swojej pracy zauważam wzorce, z których korzystam, aby wyciągać krytyczne wnioski”.
WellSaid mocno naciska na inicjatywy dotyczące odpowiedzialności AI w obszarze zamiany tekstu na mowę. Kiedy doniesienia o ryzyku związanym z AI stały się szerzej znane, WellSaid już ustanowił i prowadził programy dotyczące podziału przychodów, moderowania treści i anonimowości aktorów głosowych.
Kiedy WellSaid wystartował w 2018 r., pierwotnie został stworzony, aby pomagać edukatorom w tworzeniu treści informacyjnych. Obecnie WellSaid jest używany do informowania i wspierania milionów ludzi — w tym aktorów głosowych, osób starszych i niepełnosprawnych klientów oraz powiązanych organizacji, takich jak Słyszalny wzrok, zapewniająca niewidomym osobom napisy z realistycznym, ludzkim głosem.
Konkurencja i zróżnicowanie WellSaid
Konkurentami WellSaid są ElevenLabs i Murfa AIjednak WellSaid koncentruje się na ściśle kontrolowanym modelu szkoleniowym, który nie korzysta z publicznych, otwartych danych.
Firmy takie jak ElevenLabs powstały z chęci tłumaczenia tekstów i języków w sposób, który zapewniałby płynne i realistyczne wypowiedzi. ElevenLabs, podobnie jak WellSaid, pracuje dla pacjentów z chorobami zwyrodnieniowymi, takimi jak SLA. A Murf AI ma Źródło danych głosowych opcja, która płaci Ci za przesłanie nagrania głosowego.
Jednak w przypadku danych typu open source, niezależnie od tego, czy zapłacisz 5 dolarów za wypróbowanie swojego dźwiękowego sobowtóra, czy zgłosisz się po nagranie swojego głosu, posiadanie autonomii w kwestii swojego wizerunku niekoniecznie wchodzi w grę.
W końcu, słuszne jest martwienie się o niewłaściwe wykorzystanie głosów generowanych przez AI. Pamiętacie sprawę OpenAI-Scarlett Johansson? Albo o podrabianych przez AI automatycznych połączeniach telefonicznych podszywających się pod prezydenta Joe Bidena, które FCC uznała za nielegalne?
W obliczu napływu relacji medialnych i pozwów dotyczących naruszeń zaufania i zasad bezpieczeństwa spowodowanych sztuczną inteligencją, prywatne pozyskiwanie danych przez WellSaid nie jest po prostu mądrzejszą decyzją — jest koniecznością.
WellSaid twierdzi, że nie zbiera milionów głosów z internetu, ale woli skupić się na swojej misji, jaką jest sztuczna inteligencja dla dobra — w tym scenariuszu oznacza to wysokiej jakości wyniki i pozwolenie na korzystanie z głosów na swojej platformie.
„Wszystkie nasze głosy pochodzą od aktorów” – powiedział Cook, CEO WellSaid. „Nagraliśmy je w profesjonalnych środowiskach. Sprawdziliśmy je, mamy ich akceptację. Płacimy im, płacimy im tantiemy. Płacimy im za ich czas i szkolenie. Płacimy im tantiemy na bieżąco”.
W jaki sposób „etyczna” sztuczna inteligencja może wspierać ludzkie doświadczenia
Jeśli chodzi o korzystanie z AI, pozostaje pytanie, czy ludzie chcą narzędzi sztucznej inteligencji w swoim codziennym życiu. Według ankiety CNET opublikowanej we wrześniu na podstawie danych zebranych przez YouGov, 25% respondentów stwierdziło, że narzędzia AI nie są dla nich pomocne i nie chcą, aby były zintegrowane z ich telefonami.
34% ankietowanych obawia się o swoją prywatność podczas korzystania ze sztucznej inteligencji na urządzeniach, a 45% stwierdziło, że nie zapłaciłoby za subskrypcję narzędzi AI.
Cook mówi, że wygoda i zaufanie odgrywają ogromną rolę w tym, jak ludzie decydują się na interakcję z AI. Wierzy, że AI ostatecznie stanie się częścią codziennego życia i pozwoli ludziom na interakcję z technologią i podejmowanie decyzji na jej temat na podstawie osobistych doświadczeń.
Czy zatem istnieje świat, w którym etyczna sztuczna inteligencja będzie mogła swobodnie funkcjonować w domach zwykłych ludzi?
„Myśląc o tym jako o narzędziu, które pomoże nam robić rzeczy, których nie możemy zrobić dzisiaj, czuję się całkiem dobrze co do roli AI w zapobieganiu chorobom i rozprzestrzenianiu chorób lub wysokiej jakości opieki zdrowotnej wśród osób pokrzywdzonych lub odizolowanych” — powiedział Cook.
„Myślę, że za 30, 40, 50 lat spojrzymy wstecz i powiemy: ‘To było przełomowe’. To naprawdę wielka sprawa, która ma poprawić życie wielu ludzi”.