Sobre las oportunidades y los riesgos de los modelos fundacionales
Lea o escuche sin conexión
Amazon KindleReseña
Los modelos fundacionales de inteligencia artificial se entrenan con datos diversos. Con el uso de redes neuronales profundas y aprendizaje autosupervisado, pueden manejar una gran variedad de áreas temáticas y tareas. Según un amplio equipo de investigación de la Universidad de Stanford, los expertos pueden desplegar modelos fundacionales a una escala alucinante con miles de millones de parámetros. Estos modelos, que pueden entrenarse para realizar muchas tareas, también parecen desarrollar la capacidad de realizar tareas más allá de su entrenamiento. Estos modelos de inteligencia artificial son nuevos y es posible que algunos usuarios no comprendan sus debilidades ni su potencial. Dado que los modelos fundacionales pronto serán de uso generalizado, los investigadores deben dar prioridad al estudio de las cuestiones sociales y éticas que suscitan.
Resumen
Sobre los autores
Rishi Bommasani es estudiante de doctorado en informática en la Universidad de Stanford, donde Percy Liang es profesor asociado de informática. Más de 100 investigadores firmantes han contribuido a este trabajo.
Comentarios sobre este resumen