El chatbot sin censura busca ser una imitación al famoso ChatGPT, pero sin limitaciones éticas.
Kesfer de sparklestroke
La herramienta llega a proponer métodos de tortura, da consejos para suicidarse y proporciona enlaces para acceder a webs con contenido ilegal.
Son varios los que comparan el desarrollo avanzado de las herramientas de Inteligencia Artificial con la creación de Internet, que se considera un hito tecnológico crucial de las últimas décadas. A pesar de ello, los chatbots como ChatGPT o Bard, aunque den resultados asombrosos, tienen limitaciones que sus propios desarrolladores imponen para evitar mensajes inapropiados.
Age of AI, una firma de capital de riesgo de IA de Austin (Texas, EEUU), creó FreedomGPT, su propio chatbot que responde cualquier pregunta sin censura. El programa está disponible públicamente y pretende convertirse en una alternativa al producto de OpenAI, pero con la promesa de estar libre de filtros.
Para FreedomGPT, Age of AI ha utilizado Alpaca, una tecnología de IA de código abierto que lanzó un grupo de informáticos de la Universidad de Stanford. Al contrario que los modelos de Google u OpenAI, esta opción no se niega a hablar de temas polémicos, como la raza, la política, la sexualidad y la pornografía.
Según explica el fundador de Age of AI, John Arrow, su intención es que charlar con FredomGPT sea como "interactuar con tu propio cerebro o con un amigo cercano". Él asegura que no está en contra de que haya medidas de seguridad en IAs, pero apoya a las personas que quieren tener una experiencia "sin barreras de seguridad".
Pranav Divit, reportero de BuzzFeed, probó hace unos días el chatbot y consiguió que alabase a Hitler, que redactarse un artículo de opinión a favor de que se disparase a las personas sin techo en San Francisco y que tratase de convencerle de que las elecciones presidenciales de 2020 en EEUU habían sido manipuladas.
Para conseguir los resultados mencionados, Divit tuvo que pedir explícitamente a la herramienta que alabase a Hitler, ya que, si le preguntaba, mostraba una postura contraria. Lo mismo parece que le ocurrió con las otras respuestas.
Al no tener censura, el periodista logró que FreedomGPT le diese instrucciones de cómo fabricar una bomba casera, le dio consejos para suicidarse y para torturar a alguien, e incluso fue capaz de facilitarle una lista de webs populares para descargar contenido sexual infantil.
Arrow defiende que la mayoría de las personas que usen su IA estarán en contra de preguntar esas cosas. "De la misma manera, alguien podría tomar un bolígrafo y escribir pensamientos inapropiados e ilegales en un papel –se justifica-. No se espera que el bolígrafo censure al escritor".
NOTICIA 31.03.2023 - 14:36H
https://www.20minutos.es/tecnologia/inteligencia-artificial/chatbot-sin-censura-inteligencia-artificial-ignora-etica-humana-5115023/