Tu iPhone ya tiene funciones de IA: simplemente están ocultas

Empresas como Google y Samsung están impulsando fuertemente la IA en estos días, pero ¿sabías que tu iPhone también usa IA de muchas maneras que ni siquiera conoces? Hablemos de estas características en detalle.

1 Copie texto de imágenes y videos a través de Live Text

2 Reconocimiento de personas y mascotas en fotografías

En la aplicación Fotos, encontrarás una función interesante que organiza a las personas y a tus mascotas. Esto hace que sea muy fácil encontrar personas específicas en su colección de fotografías. Apple prioriza en gran medida la privacidad, por lo que todas las funciones mencionadas en este artículo, incluida ésta, utilizan el procesamiento en el dispositivo para tareas de inteligencia artificial y no se cargan datos en los servidores de Apple.

Sólo abre el Fotos aplicación, y bajo el Álbum pestaña, desplácese hacia abajo y toque Personas y mascotas. Esto te mostrará una cuadrícula de todas las personas que aparecen comúnmente en tu galería y podrás ver todas sus fotos con solo tocar su ícono.

3 Motor fotónico y modo nocturno

Todos sabemos que los iPhone tienen cámaras excelentes, pero no es sólo por el hardware; el software subyacente también juega un papel importante.

También te puede interesar 4 formas de acceder a GPT-4 gratis 4 formas de acceder a GPT-4 gratis

El modo nocturno es una característica que demuestra mejor la destreza del software de tu iPhone. En condiciones de poca luz, cuando haces clic en una foto con el modo nocturno activado, la cámara captura varias imágenes con diferentes exposiciones y luego utiliza algoritmos de aprendizaje automático para fusionarlas y resaltar las mejores partes de cada toma.

Otro gran ejemplo de cómo su iPhone usa IA en fotografía sería el motor fotónico del iPhone 14 Pro y modelos más nuevos. Aprovecha los sensores más grandes y aplica directamente algoritmos computacionales a imágenes sin comprimir para mejorar aún más las fotografías con poca luz, lo que genera más detalles y colores más brillantes.

Para mostrarle la gran diferencia que pueden hacer la IA y la fotografía computacional, mire la foto a continuación, que tomé con el modo nocturno habilitado en mi iPhone 14 con Photonic Engine.

Ahora, aquí hay una toma similar con el modo nocturno desactivado en un iPhone 13, que no tiene Photonic Engine.

También te puede interesar Más allá de ChatGPT: ¿Qué les depara el futuro a la IA generativa y los chatbots? Más allá de ChatGPT: ¿Qué les depara el futuro a la IA generativa y los chatbots?

Aunque ambos dispositivos tienen sensores ligeramente diferentes, todas las mejoras importantes que ves se deben al software. Puedes notar claramente la diferencia que hacen las funciones de IA. La toma del iPhone 14 es mucho más brillante y casi no tiene ruido a pesar de que se hace clic en una habitación con poca luz.

4 Sugerencias personalizadas en la aplicación Journal

La aplicación Journal es uno de los primeros esfuerzos de Apple para mejorar su salud mental. Si bien la aplicación puede parecer muy básica para la mayoría de los usuarios, sin rastros de IA implementada, suceden muchas más cosas en segundo plano.

La aplicación utiliza el aprendizaje automático en el dispositivo para analizar sus actividades recientes, como sus entrenamientos, preferencias musicales e incluso las personas con las que ha estado hablando. A partir de estos datos, proporciona sugerencias personalizadas, intentando anticipar su estado de ánimo y estado mental actual.

Aunque toda esta recopilación de datos puede parecer una pesadilla para la privacidad, Apple dice que todas sus entradas están cifradas de extremo a extremo. Dado que todo el procesamiento se realiza en el dispositivo, sus datos nunca salen de su iPhone.

También te puede interesar Cómo utilizar la API ChatGPT Cómo utilizar la API ChatGPT

5 voz personal

Su iPhone ofrece varias funciones de accesibilidad y Personal Voice se encuentra entre mis favoritos. Esta característica es útil para personas con afecciones cognitivas como la ELA, donde eventualmente pueden perder la capacidad de hablar en el futuro.

Al activar la función, grabas alrededor de 15 minutos de audio. De la noche a la mañana, tu iPhone procesa estos datos y genera una versión sintetizada de tu voz que puedes usar donde sea necesario. Es una demostración notable del poder del Neural Engine, que muestra las impresionantes capacidades del hardware de inteligencia artificial del dispositivo de Apple.

Una vez configurado, puede escribir para hablar con su voz personal durante las llamadas de FaceTime y iPhone.

6 Descripciones de imágenes

Esta es otra accesibilidad que está completamente oculta en tu iPhone pero que es muy útil para personas con problemas de visión. Si no puede ver las imágenes debido a problemas de visión, puede usar Descripciones de imágenes con VoiceOver y su iPhone le dictará lo que ve en la foto.

También te puede interesarCómo utilizar ChatGPT para escribir un guión de vídeo de YouTubeCómo utilizar ChatGPT para escribir un guión de vídeo de YouTube

Sin embargo, la función no se limita solo a la aplicación Fotos, ya que también puede obtener información en tiempo real utilizando el Cámara aplicación mientras tiene VoiceOver activado. Alternativamente, puede utilizar el lupa aplicación y habilite la función tocando el Ajustes icono en la esquina inferior izquierda y tocando el más (+) botón al lado de Descripciones de imágenes.

7 identificación facial

A menudo se pasa por alto Face ID debido a la facilidad con la que desbloquea su iPhone. ¿Pero sabías que aprovecha el motor neuronal de Apple para construir meticulosamente un mapa 3D detallado de tus rasgos faciales?

Este proceso involucra la cámara TrueDepth, que captura datos de profundidad proyectando y analizando más de 30.000 puntos infrarrojos invisibles en su rostro. Estos puntos crean un mapa de profundidad preciso, que luego se utiliza para formar una representación completa de su estructura facial.

8 Texto predictivo y autocorrección

Una de mis mayores quejas con los iPhones antes de iOS 17 era lo complicada que era la autocorrección en comparación con Android. Afortunadamente, ha mejorado mucho, ya que el teclado del iPhone ahora ejecuta modelos de aprendizaje automático cada vez que tocas una tecla.

Otro cambio que marca una gran diferencia es que el teclado reconoce el contexto de la oración que estás escribiendo, lo que te brinda opciones de autocorrección más precisas. Apple logró esto adoptando un modelo de lenguaje transformador, que utiliza redes neuronales para comprender mejor las relaciones entre las palabras de las oraciones.

Además, no olvide que los iPhone usan IA para la función de texto predictivo, que brinda sugerencias en línea para completar automáticamente sus oraciones.

Tu iPhone es mucho más inteligente de lo que piensas, gracias a la silenciosa implementación de IA de Apple en varias funciones. Si bien hoy cubrimos algunos trucos ocultos, esperamos que Apple anuncie un montón de nuevas funciones de inteligencia artificial en el evento WWDC 2024.

Scroll al inicio