La inteligencia artificial (IA) está transformando rápidamente casi todas las industrias, desde el transporte hasta la salud y la agricultura. Los sistemas impulsados por IA se están volviendo increíblemente buenos para entender el lenguaje humano, responder preguntas, hacer recomendaciones e incluso generar contenido original.
Detrás de escena, la mayor parte de esta magia de IA es posible gracias a los grandes modelos de lenguaje (LLM) como GPT. Estos modelos fundamentales se entrenan en enormes conjuntos de datos usando cientos de miles de millones de parámetros en una poderosa infraestructura informática en la nube. Desarrollan una amplia comprensión del lenguaje que les permite realizar diversas tareas de lenguaje natural.
Los LLM más avanzados son desarrollados por las grandes compañías tecnológicas como OpenAI, Google y Microsoft. Operan granjas de servidores con miles de GPU y TPU de gama alta que pueden manejar los intensos requisitos computacionales para entrenar redes neuronales grandes.
Este enfoque centralizado para desarrollar e implementar IA tiene algunas ventajas importantes. La nube ofrece una escalabilidad de cómputo prácticamente ilimitada para entrenar modelos de vanguardia. La centralización también simplifica el desarrollo, mantenimiento y actualización de modelos para las empresas tecnológicas.
Sin embargo, a medida que la IA se vuelve más omnipresente y se integra en todas las facetas de nuestras vidas, mantener toda la IA en la nube centralizada crea algunos problemas emergentes en torno a la privacidad, la seguridad, la precisión y la eficiencia. Estos problemas están impulsando una evolución importante en las arquitecturas de IA, desde la centralización hacia la distribución.
Riesgos de privacidad y seguridad: Con la IA centralizada, los datos de los usuarios y las entradas de los modelos se envían a la nube para generar resultados. Esto crea riesgos de privacidad y seguridad, ya que los datos personales se concentran en grandes repositorios centralizados. Las filtraciones de datos de alto perfil han subrayado estos peligros. A medida que las personas se vuelven más conscientes de la privacidad, existe una creciente preferencia por soluciones que mantienen los datos locales y toman decisiones en el dispositivo sin enviar datos a la nube. El aprendizaje federado, el aprendizaje dividido y la inferencia en el dispositivo ofrecen alternativas más seguras y que preservan la privacidad.
Falta de personalización: Los modelos centralizados crean resultados únicos para todos. Pero para muchas aplicaciones, es importante proporcionar resultados personalizados y contextualizados adaptados a cada usuario. Por ejemplo, el reconocimiento de voz para asistentes móviles debe adaptarse a los patrones de voz y dialecto de una persona. A menudo, los modelos alojados centralmente carecen de las señales locales y la adaptabilidad para proporcionar resultados verdaderamente personalizados.
Limitaciones de precisión: Los modelos de IA centralizados carecen de contexto, lo que puede limitar su precisión en muchas tareas. Por ejemplo, los vehículos autónomos deben percibir y comprender objetos en sus alrededores locales. Para aplicaciones de visión artificial, el entrenamiento localizado en condiciones ambientales específicas puede mejorar la precisión sobre los modelos centralizados.
La ineficiencia de la conexión constante a la nube: tener que enviar datos de ida y vuelta a la nube para su procesamiento crea latencia, consume ancho de banda y tiene un costo. La inferencia realizada localmente en el dispositivo o en servidores periféricos más cercanos al usuario es más eficiente, proporciona tiempos de respuesta más rápidos y reduce los costos de transferencia de datos.
Dadas estas consideraciones, veremos que los sistemas de IA evolucionarán para adoptar arquitecturas más distribuidas. Sin embargo, la IA centralizada y distribuida tienen sus propias ventajas. La arquitectura óptima será un modelo híbrido que combine ambos enfoques:
El entrenamiento / desarrollo de modelos seguirá siendo en gran medida centralizado. La nube ofrece una escala inigualable para entrenar los modelos más avanzados con conjuntos de datos masivos y capacidad de cómputo.
La inferencia se desplazará hacia dispositivos y servidores periféricos cercanos al usuario. Esto distribuye el cómputo en los endpoints para obtener menor latencia, privacidad y personalización.
Se puede realizar algún ajuste de modelos finos en el borde para adaptar los modelos a datos y condiciones locales.
Los componentes básicos del modelo se desarrollarán de forma centralizada y luego se comprimirán o particionarán para distribuir la inferencia.
Los modelos centralizados y distribuidos coordinarán de manera inteligente con marcos de agregación para beneficiarse del aprendizaje colectivo.
Las empresas tendrán que evolucionar su infraestructura de IA para respaldar este enfoque híbrido. Esto incluye:
Invertir en capacidades en el dispositivo e infraestructura periférica.
Desarrollar técnicas de compresión para implementar modelos de producción localmente.
Construir capacidades de análisis y aprendizaje por transferencia que preserven la privacidad.
Crear marcos para administrar modelos y coordinación entre la nube, el borde y los puntos finales.
Gigantes tecnológicos de consumo como Google y Apple ya están liderando este enfoque híbrido. Apple está realizando más procesamiento de Siri en el dispositivo para mejorar la latencia, la privacidad y la confiabilidad. Google está llevando modelos BERT a teléfonos Android para permitir la finalización de oraciones con Gboard incluso sin conexión a Internet. Waymo entrena sus modelos de vehículos autónomos en la nube centralizada, pero realiza inferencias clave de forma local para cada vehículo.
A medida que la IA se vuelve omnipresente, las arquitecturas de IA distribuidas e híbridas serán críticas para mejorar la privacidad, la seguridad, la precisión y la eficiencia. El equilibrio exacto entre los componentes centralizados y distribuidos puede variar entre diferentes aplicaciones y casos de uso en función de las compensaciones. Pero la tendencia general es clara: la IA se está volviendo local.
コメント