¿Deberíamos dejar de entrenar IA avanzada?

2023-05-02

Comointeligencia artificial (IA)continúa avanzando, algunas figuras clave en el campo ahora están pidiendo la suspensión del entrenamiento de IA debido al riesgo que representa para la humanidad. El CEO de Twitter, Elon Musk, el cofundador de Apple, Steve Wozniak, y algunos investigadores de DeepMind firmaron una carta abierta del Future of Life Institute instando a la suspensión temporal del desarrollo de IA por encima de cierta capacidad, advirtiendo de los riesgos potenciales que plantean los sistemas más avanzados. . La carta argumenta que en los últimos meses los laboratorios de IA han entrado en una carrera fuera de control para desarrollar mentes digitales más poderosas, que incluso sus creadores no pueden entender, predecir o controlar.

El Future of Life Institute es una organización sin fines de lucro que tiene como objetivo alejar las tecnologías transformadoras de los riesgos extremos a gran escala y beneficiar la vida. En su carta abierta, la organización afirma que los sistemas de inteligencia artificial con inteligencia humana y competitiva plantean profundos riesgos para la sociedad y la humanidad. La carta advierte que dichos sistemas podrían inundar los canales de información con información errónea y reemplazar los trabajos con automatización. Las IA avanzadas deben desarrollarse con cuidado, pero en los últimos meses los laboratorios se han apresurado a implementar sistemas cada vez más potentes.

El banco de inversión Goldman Sachs publicó recientemente un informe que indica que, si bien la IA probablemente aumentará la productividad, millones de trabajos podrían automatizarse. Sin embargo, otros expertos argumentan que el efecto de la IA en el mercado laboral es difícil de predecir. En la carta, el Future of Life Institute pregunta: "¿Deberíamos desarrollar mentes no humanas que eventualmente puedan superarnos en número, ser más inteligentes, obsoletas [sic] y reemplazarnos?" El profesor Stuart Russell de la Universidad de California, Berkeley, y signatario de la carta, le dijo a BBC News que los sistemas de IA presentan riesgos significativos para la democracia a través de la desinformación armada, para el empleo a través del desplazamiento de las habilidades humanas y para la educación a través del plagio y la desmotivación.

La carta también advierte sobre la posible amenaza futura para el control humano de nuestra civilización por parte de las IA avanzadas, pero el profesor de informática de Princeton, Arvind Narayanan, criticó la carta por ignorar la versión del problema que ya está dañando a las personas. Acusó a la carta de centrarse en el "riesgo especulativo y futurista". OpenAI, la compañía detrás de ChatGPT, lanzó recientemente GPT-4, una tecnología de punta que ha impresionado a los observadores con su capacidad para realizar tareas como responder preguntas sobre objetos en imágenes.IA abiertano ha comentado públicamente sobre la carta.

Dados los riesgos potenciales asociados con el rápido avance de la IA, los expertos piden mayor cautela en el desarrollo de la IA. En particular, están instando a los laboratorios a pausar inmediatamente durante al menos seis meses el entrenamiento de sistemas de IA más potentes que GPT-4. Si bien la IA tiene el potencial de transformar la sociedad, los expertos argumentan que dicha transformación no debería producirse a costa de la seguridad y el control humanos.

A la larga, tomar precauciones sensatas es un pequeño precio a pagar para mitigar los riesgos que plantean las IA avanzadas. Sin embargo, los expertos también argumentan que los riesgos son difíciles de predecir y que debemos proceder con cautela para evitar consecuencias no deseadas. El Future of Life Institute insta a los desarrolladores de IA a que consideren las posibles implicaciones futuras de su trabajo y se aseguren de que las IA avanzadas se desarrollen con cuidado.

En general, el llamado a suspender el entrenamiento de IA por encima de cierta capacidad refleja una creciente preocupación por los riesgos que plantean las IA avanzadas. Si bien todavía hay mucho que no sabemos sobre las implicaciones a largo plazo de la IA, los expertos piden precaución para evitar posibles daños a la sociedad y la humanidad. El rápido ritmo de desarrollo de la IA en los últimos años ha dejado a muchos expertos preocupados de que la tecnología pueda estar fuera de control y de que corremos el riesgo de crear sistemas que no podemos entender ni controlar. Como tal, el llamado a detener el desarrollo de la IA es un paso necesario para garantizar que podamos aprovechar el potencial de la IA de manera segura y responsable.


Obtenga el último precio? Le responderemos lo antes posible (dentro de las 12 horas)