Às vezes, mesmo como repórter de tecnologia, você pode ser pego de surpresa pela rapidez com que a tecnologia melhora. Caso em questão: foi só hoje que descobri que meu iPhone oferece um recurso que eu há muito desejava – a capacidade de identificar plantas e flores a partir de apenas uma foto.
É verdade que vários aplicativos de terceiros oferecem essa função há anos, mas da última vez que os experimentei fiquei desapontado com sua velocidade e precisão. E, sim, há o Google Lens e o Snapchat Scan, mas é sempre menos conveniente abrir um aplicativo que eu não usaria de outra forma.
Mas, desde a introdução do iOS 15 em setembro passado, a Apple ofereceu sua própria versão desse recurso de pesquisa visual. Chama-se Visual Look Up, e é muito bom.
Funciona de forma muito simples. Basta abrir uma foto ou captura de tela no aplicativo Fotos e procurar o ícone azul “i” abaixo. Se tiver um pequeno anel brilhante ao redor, o iOS encontrou algo na foto que pode identificar usando o aprendizado de máquina. Toque no ícone, depois clique em “Procurar” e ele tentará trazer algumas informações úteis.
Também não funciona apenas para plantas e flores, mas também para pontos de referência, arte, animais de estimação e “outros objetos”. Não é perfeito, é claro, mas me surpreendeu mais vezes do que me decepcionou. Aqui estão mais alguns exemplos apenas do meu rolo de câmera:
Embora a Apple tenha anunciado esse recurso no ano passado na WWDC, não foi exatamente alardeando sua disponibilidade. (Eu o vi através de um link em um dos meus boletins de tecnologia favoritos, O transbordamento.) Até mesmo a página de suporte oficial do Visual Look Up fornece mensagens confusas, informando em um lugar que é “somente nos EUA” e listando outras regiões compatíveis em uma página diferente.
Pesquisa Visual é ainda limitada em sua disponibilidade, mas o acesso se expandiu desde o lançamento. Agora está disponível em inglês nos EUA, Austrália, Canadá, Reino Unido, Cingapura e Indonésia; em francês na França; em alemão na Alemanha; em italiano na Itália; e em espanhol na Espanha, México e Estados Unidos.
É um ótimo recurso, mas também me fez pensar no que mais a pesquisa visual poderia fazer. Imagine tirar uma foto da sua nova planta de casa, por exemplo, apenas para a Siri perguntar “quer que eu configure lembretes para um cronograma de rega?” — ou, se você tirar uma foto de um ponto de referência no feriado, para a Siri pesquisar na web para encontrar o horário de funcionamento e onde comprar ingressos.
Aprendi há muito tempo que é tolice depositar suas esperanças na Siri fazendo algo muito avançado. Mas esses são os tipos de recursos que podemos obter com futuros fones de ouvido AR ou VR. Vamos torcer para que se a Apple introduza esse tipo de funcionalidade, cause um impacto maior.