Skip navigation
Lo que ChatGPT revela sobre la urgente necesidad de una IA responsable
Artículo

Lo que ChatGPT revela sobre la urgente necesidad de una IA responsable

A medida que la IA generativa democratiza su adopción, surgen nuevos retos para las organizaciones.



Clasificación editorial

9

Cualidades

  • Innovador
  • Aplicable
  • Visionario

Reseña

No permita que el miedo a lo desconocido le impida implementar la IA generativa para los productos de su empresa, pero implemente la IA de forma responsable y procure hacerlo pronto: el Boston Consulting Group ha descubierto que el programa promedio de inteligencia artificial responsable tarda tres años en madurar. En este informe especial, el Instituto Henderson del Boston Consulting Group expone los pasos a seguir –incluidas la adquisición de pólizas de seguros y la implementación de procesos de red-teaming– para adoptar la IA de forma responsable.

Resumen

Las preocupaciones sobre el poder, la gobernanza, los impactos no deseados en los clientes, el exceso de capacidad y cuestiones de derechos de autor mal definidas plagan la IA generativa.

Primero hubo una loca carrera por incorporar la IA a los procesos y operaciones de las organizaciones; ahora, las mismas están reconociendo los problemas que pueden surgir con el uso de la IA, en particular la IA generativa. Consideremos ChatGPT: el programa puede generar textos científicos de apariencia creíble, pero a menudo incorrectos; puede repetir como un loro discursos de odio y puede diseminar prejuicios en avatares e imágenes. Pero los problemas no son solo estos. Los conjuntos de datos utilizados por la IA generativa contienen una gran variedad de materiales, lo que sienta las bases para reclamaciones por derechos de autor. Aunque las organizaciones más pequeñas pueden utilizar la IA, solo las empresas muy grandes con acceso a recursos como grandes conjuntos de datos, potencia informática y de ingeniería pueden construir IA generativa. Esto significa que el poder de la IA generativa está centralizado...

Sobre los autores

François Candelon es director global del Instituto Henderson del BCG. Abhishek Gupta es miembro del programa de Inteligencia Colectiva Aumentada del Boston Consulting Group, Steven D. Mills es el jefe de ética de IA del BCG y Leonid Zhukov es socio y director asociado de ciencia de datos del BCG.


Comentarios sobre este resumen o Start Discussion

  • Avatar
  • Avatar
    L. A. hace 1 año
    Debemos entender que la IA es creada por un ser humano llevando a consecuencias que pueden ser tanto positivas como negativas dependiendo de la estrategia y las normas que lo regulen. Debemos estandarizar para ser innovadores y no así destructores masivos del propio conocimiento.
  • Avatar
    S. S. hace 1 año
    Interesante articulo lo que nos lleva es a determinar que si debemos pensar en adoptarla pero tomando en cuenta los riesgos que con lleva ya que sera parte fundamental en los miles de desarrollos que estan por venir sin embargo se deben de tomar las debidas precauciones para no afectar especialmente a nuestros clientes