Para conseguir isso eles contribuíram com algoritmos de inteligência artificial capazes de aprender com o mundo real, extraindo padrões dos objetos e seres que o habitam.
Você poderia dizer que a inteligência artificial é um mecanismo que funciona com grandes quantidades de um combustível, dados que os humanos extraem do mundo real.
Alimentando uma rede neural com milhares ou milhões de fotografias de gatos por exemplo podemos conseguir que a partir de agora, seja capaz de reconhecer outros gatos em outras fotografias que não conhecia antes, graças ao fato de detectar os padrões que todos eles eles tem em comum.
Mas coletar e rotular (manualmente) todos esses exemplos não é barato nem simples, nem pode ser feito em pouco tempo, sem mencionar a multiplicidade de situações que uma IA deve ser capaz de identificar, mas para a qual mal podemos fornecer exemplos reais (acidentes de carro graves, por exemplo).
Pelo custo ou pela incapacidade de obter dados reais, as empresas de inteligência artificial começaram a enganar suas IA’s, fornecendo fotos e vídeos falsos, as vezes manipulados de maneira antiga, em outros casos, o produto do uso de GANs ou redes generativas antagônicas (deepfakes).
Tantas AI’s já vivem, como muitos humanos, em “realidades sintéticas”, nas quais supostamente aprendem tudo o que terão que usar para se relacionar com o mundo real. Startups como Landing.ai, AI.Reverie ou ANYVERSE já geram milhões de cenas que um carro de verdade pode não ter, mesmo depois de um milhão de horas viajando por ruas e estradas.
A geração de dados falsos, mas realistas também pode ocorrer com outro objetivo, o de anonimizar dados sensíveis , como os registros médicos de que as IA’s do setor de saúde precisam para refinar sua capacidade de diagnóstico.