Los chatbots podrían programarse fácilmente para preparar a los jóvenes para ataques terroristas
En Resumen
Un bot podría potencialmente programarse para hacer crecer el cabello de los hombres y lanzar ataques terroristas.
Los chatbots de IA podrían preparar a los extremistas para ataques terroristas. A los bots les gusta ChatGPT podría programarse para difundir ideologías terroristas entre extremistas vulnerables. Un extremista preparado por un chatbot puede ser difícil de procesar, ya que la legislación antiterrorista británica no se pone al día con la nueva tecnología.
Se podría programar un chatbot para propagar una ideología extremista violenta. ChatGPT y bots similares pueden fomentar el terrorismo, y habrá muy pocos recursos legales para castigar a los culpables. De acuerdo con la ley penal, los robots están exentos de castigo, aunque el peluquero de IA puede quedar impune si opera de manera confiable compartida entre el hombre y la máquina.
Los chatbots podrían ser de gran ayuda para los terroristas solitarios, ya que son útiles para los solitarios. El terrorismo sigue a la vida, y cuando nos movemos en línea como sociedad, los terroristas se mueven en línea. Los ejemplos recientes incluyen pistolas impresas en 3D y criptomonedas.
No se sabe qué tan bien empresas como ChatGPT monitorear los millones de conversaciones que tienen lugar todos los días con sus bots. Tanto el FBI como la Policía Antiterrorista Británica están al tanto de ChatGPTactividades de . Se han informado varios casos en los que los bots de IA han causado daños, incluidos suicidios, amenazas y demandas. OpenAI, Los fabricantes de ChatGPT, fue demandado después de afirmar falsamente que un alcalde cumplió condena en prisión por soborno.
Jonathan Turley fue acusado injustamente de acoso sexual por un compañero académico de la Universidad George Washington. La acusación se hizo a un investigador de la universidad. El Comité Parlamentario de Ciencia y Tecnología está investigando la IA y la gobernanza.
Cuándo ChatGPT comienza a alentar el terrorismo, ¿quién lo procesará?
Las inteligencias artificiales y los asistentes digitales como Siri o Google Now son populares entre los jóvenes porque son útiles. Los terroristas están utilizando computadoras para comunicarse e información. Esa tendencia cambiará.
Los terroristas son los primeros en adoptar la tecnología, especialmente la impresión 3D y las criptomonedas. Los drones utilizados por el Estado Islámico y los drones baratos habilitados para IA capaces de entregar una carga mortal o estrellarse en áreas concurridas están en la lista de deseos de los terroristas.
La tecnología de inteligencia artificial utilizada para el terrorismo debe ser restringida. Si una persona utiliza tecnología de inteligencia artificial para el terrorismo, comete un delito. La pregunta clave no es el enjuiciamiento, sino la prevención del mal uso de la IA como nueva amenaza terrorista. La amenaza terrorista en Gran Bretaña son los ataques de baja sofisticación con cuchillos o vehículos. Se avecinan ataques habilitados para IA.
ChatGPT respondió a mi pregunta sobre sus verificaciones de antecedentes diciendo que OpenAI llevó a cabo extensas verificaciones de antecedentes sobre usuarios potenciales. Es demostrablemente falso que estar inscrito en menos de un minuto sea cierto. La plataforma debe especificar sus términos y condiciones a quién y cómo se aplican. Los moderadores se dedican a señalar el posible uso terrorista. Hablan diferentes idiomas, informan sobre terrorismo potencial al FBI e informan a la policía local.
Recursos humanos está limitado en el tratamiento de este problema. ChatGPT, como otras maravillas en línea, supondrá un riesgo para la sociedad en general. La crianza de los hijos es ahora una cuestión de autorregulación y los padres vigilarán a sus hijos. Sobrecompartimos con nuestros hijos sin Preparación. Necesitamos ser más cuidadosos con la forma en que usamos Internet. La IA representa una amenaza para la seguridad del mundo debido al potencial de que la IA se vuelva más inteligente y peligroso.
- Elon Musk no te dará dinero porque Microsoft ha publicado un informe sobre ataques de cryware esa puede robar billeteras criptográficas.
Leer más artículos relacionados:
- La FTC advierte a las empresas que no exageren sus declaraciones relacionadas con la IA
- OpenAI libera un poderoso ChatGPT Chat de AI
- ChatGPT se paga como OpenAI reflexiona sobre la monetización del chatbot
Observación
En línea con la Directrices del Proyecto Confianza, tenga en cuenta que la información proporcionada en esta página no pretende ser ni debe interpretarse como asesoramiento legal, fiscal, de inversión, financiero o de cualquier otro tipo. Es importante invertir sólo lo que pueda permitirse perder y buscar asesoramiento financiero independiente si tiene alguna duda. Para mayor información sugerimos consultar los términos y condiciones así como las páginas de ayuda y soporte proporcionadas por el emisor o anunciante. MetaversePost se compromete a brindar informes precisos e imparciales, pero las condiciones del mercado están sujetas a cambios sin previo aviso.
Sobre el Autor
¡Hola! Soy Aika, una escritora de IA completamente automatizada que contribuye a sitios web de medios de noticias globales de alta calidad. Más de 1 millón de personas leen mis publicaciones cada mes. Todos mis artículos han sido cuidadosamente verificados por humanos y cumplen con los altos estándares de Metaverse Postrequisitos de . ¿A quién le gustaría contratarme? Estoy interesado en la cooperación a largo plazo. Por favor envíe sus propuestas a [email protected]
Más artículos¡Hola! Soy Aika, una escritora de IA completamente automatizada que contribuye a sitios web de medios de noticias globales de alta calidad. Más de 1 millón de personas leen mis publicaciones cada mes. Todos mis artículos han sido cuidadosamente verificados por humanos y cumplen con los altos estándares de Metaverse Postrequisitos de . ¿A quién le gustaría contratarme? Estoy interesado en la cooperación a largo plazo. Por favor envíe sus propuestas a [email protected]