Claude (chatbot)

Claude es una inteligencia artificial de tipo chatbot[1] conversacional que opera con la tecnología conocida como Large Languaje Model (LLM)[2], una vertiente de la inteligencia artificial que se especializa en el procesamiento del lenguaje natural en las computadoras. Claude es una tecnología desarrollada por Anthropic, producto de la investigación colaborativa con socios como Notion, Quora y DuckDuckGo. Su algoritmo está entrenado para ser funcional como asistente, al cual se le pueden hacer preguntas de forma similar a como se realizan con ChatGPT. Su entrenamiento permite la generación de texto como resultado a las preguntas que se planteen, de una manera muy similar a como lo harían los humanos; no obstante, es necesario tener en cuenta que al ser un algoritmo (software), sus respuestas corresponden a una construcción textual predictiva con base en una semántica lógica,[3] no al razonamiento de las preguntas que se realizan. Al igual que todos los algoritmos de inteligencia artificial, Claude carece de autoconciencia[4] e inteligencia general.[5][6]

Un punto importante a tener en cuenta es que esta tecnología tiene conexión a Internet, lo que permite que sus respuestas estén creadas con información actualizada. Por ejemplo, Claude puede proporcionar resúmenes de temas concretos o crear historias, entre otras actividades, como:

  • Generar texto, traducir idiomas, escribir diferentes tipos de contenido creativo y responder preguntas de manera informativa.
  • Seguir instrucciones y completar las solicitudes de manera cuidadosa.
  • Utilizar su conocimiento para responder a las preguntas de una manera completa e informativa, incluso si son abiertas, desafiantes o extrañas.
  • Generar diferentes formatos de texto creativo de contenido de texto, como poemas, código, guiones, piezas musicales, correo electrónico, cartas, etc.
Características técnicas de Claude
Característica Descripción
Nombre Claude
Creador Anthropic
Tipo Asistente de inteligencia artificial[7] con capacidades limitadas. .
Año de inicio Fue anunciada oficialmente por Anthropic el 14 de marzo de 2023[8], aunque no hay una fecha clara de su puesta en marcha.
Tecnologías Es un modelo de lenguaje entrenado con técnicas de aprendizaje automático (machine learning)[9].
Conocimientos No se informa sobre la cantidad de parámetros usados para su entrenamiento, pero se menciona que fueron usados millones de datos escritos y conversaciones.
Capacidades Puedo mantener conversaciones simples, responder a preguntas, proporcionar recomendaciones e información sobre ciertos temas, aunque con ciertas limitantes.
Propósito Asistir en ciertas actividades humanas para ahorrar tiempo y esfuerzo. Pero se advierte que las decisiones importantes siempre deben ser tomadas por personas
Limitaciones No posee inteligencia general[5] si se pretende igualar las capacidades humanas. Carece de autoconciencia[4], libre albedrío[10], empatía[11], intuición[12], creatividad[13] o juicio moral[14].
Ventana de contexto Su ventana de contexto es de 100,000 tokens, equivalente a 75,000 palabras[15]
Plataforma Opera en plataforma web en su sitio oficial: https://claude.ai/

Antecedentes

Anthropic es una empresa de investigación que se centra en la construcción de sistemas de inteligencia artificial, fundada en 2021 por Dario Amodei y Daniela Amodei. La empresa ha recaudado más de 400 millones de dólares en fondos de inversores como Google, Andreessen Horowitz y Peter Thiel y cuenta con un equipo de más de 100 investigadores e ingenieros que trabajan en una variedad de problemas de seguridad de la inteligencia artificial. Actualmente su trabajo se centra en desarrollar nuevas técnicas para hacer que los sistemas de inteligencia artificial sean más confiables, interpretables y dirigibles, con la intención de garantizar que este tipo de tecnología se utilice de manera ética y no repercuta de manera negativa en la sociedad.[16]

Entre las investigaciones publicadas por la empresa se encuentran:

  • La interpretabilidad de los sistemas de aprendizaje automático
  • La seguridad de los sistemas de aprendizaje por refuerzo
  • La alineación de los sistemas de IA con los valores humanos
Datos de la empresa
Concepto Descripción
Sede San Francisco, California.
Fundación 2021.
Fundadores Dario Amodei, Daniela Amodei, Jack Clark, Sam McCandlish, Tom Brown.
Financiamiento Más de $400 millones.
Empleados Actualmente cuenta con más de 100.
Productos Claude, un asistente de IA para tareas a cualquier escala.
Intereses deinvestigación Procesamiento de lenguaje natural, retroalimentación humana, leyes de escala, aprendizaje por refuerzo, generación de código e interpretabilidad.

Large Language Model (LLM)

Es una vertiente de la inteligencia artificial que se enfoca en el procesamiento del lenguaje natural, se fundamenta en los principios del test de Turing (1950)[17] al intentar comprender el lenguaje humano y dar una respuesta con una estructura sintáctica similar al lenguaje humano. Turing con su juego de la imitación, logró sentar las bases para responder a su pregunta respecto a si ¿las máquinas pueden pensar?[18] Posterior a los estudios de Turing, McCarthy; Minsky; Rochester y Shannon (1955)[19] acuñaría el término de inteligencia artificial, el cual se dio a conocer en la conferencia de Dartmouth, que tuvo lugar en el verano de 1956 en la universidad Dartmouth College en el año 1956.

Este campo de desarrollo tecnológico ha sido muy prometedor, motivo por el que su investigación ha llevado a la creación de distintas tecnologías en el campo de la inteligencia artificial. De modo que en la actualidad, es posible hacer cuasi cualquier cosas con inteligencia artificial, lo que también ha despertado la preocupación de grupos sociales, preocupaciones que han movilizado a investigadores y académicos en busca de mostrar el posible impacto negativo de este tipo de tecnologías en diversos aspectos de la vida humana, entre los que destaca el sector laboral,[20] la manipulación social,[21] así como en el periodismo;[22][23] por mencionar algunos.

Es importante considerar que el uso de la inteligencia artificial de manera desinformada, sin considerar leyes morales y principios éticos, puede tener impactos negativos en la sociedad, por lo que debemos tener cuidado con el uso de estas aplicaciones, ya que en concreto, hablando de algoritmos de generativos de texto, difundir los contenidos generados sin el razonamiento humano, y presentarlos como información veraz, puede llevarnos a un estado de posverdad,[24] de desinformación que podría sesgar las decisiones personales a consecuencia de la exposición a información incorrecta, parcial o malintencionada.

Véase también

Referencias

  1. «Chatbot: ¿Qué es y cómo funciona?». Salesforce. Consultado el 8 de junio de 2023.
  2. Kucharavy, Andrei; Schillaci, Zachary; Maréchal, Loïc; Würsch, Maxime; Dolamic, Ljiljana; Sabonnadiere, Remi; Percia, Dimitri; Mermoud, Alain et al. (21 de marzo de 2023). «Fundamentals of Generative Large Language Models and Perspectives in Cyber-Defense». arxiv.org. doi:10.48550/arXiv.2303.12132. Consultado el 13 de junio de 2023.
  3. «Semántica lógica». www.filosofia.org. Consultado el 8 de junio de 2023.
  4. Rodríguez, José Antonio Jiménez (1 de octubre de 2005). «Autoconciencia». Escritos de Psicología - Psychological Writings 1 (7): 44-58. ISSN 1989-3809. doi:10.24310/espsiescpsi.vi7.13398. Consultado el 8 de junio de 2023.
  5. Rodrigues, Fabiano de Abreu; Wagner, Roselene Espírito Santo; Barth, Natália (11 de marzo de 2022). «Inteligencia general». Ciencia Latina Revista Científica Multidisciplinar 6 (1): 4990-4998. ISSN 2707-2215. doi:10.37811/cl_rcm.v6i1.1854. Consultado el 8 de junio de 2023.
  6. «Inteligencia General: ¿qué es y cómo ha evolucionado?». psicologiaymente.com. 14 de noviembre de 2019. Consultado el 8 de junio de 2023.
  7. Mata, Ainoa Maestre (24 de mayo de 2023). «▷ Descubre cómo un asistente de inteligencia artificial puede hacerte la vida más fácil | 2023». Inteligencia 10. Consultado el 8 de junio de 2023.
  8. «Introducing Claude». Anthropic (en inglés). Consultado el 8 de junio de 2023.
  9. BBVA (8 de noviembre de 2019). «Te contamos qué es el 'machine learning' y cómo funciona». BBVA NOTICIAS. Consultado el 8 de junio de 2023.
  10. Moya Espí, Carlos (2017). El libre albedrío: un estudio filosófico. Cátedra. ISBN 978-84-376-3714-3. Consultado el 8 de junio de 2023.
  11. «Qué es la Empatía (y su significado)». Significados. Consultado el 8 de junio de 2023.
  12. «Intuición: concepto, cómo desarrollarla y características». https://humanidades.com/. Consultado el 8 de junio de 2023.
  13. «La creatividad: concepto, técnicas y aplicaciones». programas.cuaed.unam.mx. Consultado el 8 de junio de 2023.
  14. Beltran Llera, Jsús (1978). «El Juicio Moral». Revista Española de Pedagogía 36 (141). Consultado el 08/06/2023.
  15. «Introducing 100K Context Windows». Anthropic (en inglés). Consultado el 8 de junio de 2023.
  16. Cao, Sissi (9 de marzo de 2023). «Anthropic, a ChatGPT Rival Founded by Daniela and Dario Amodei, Is Worth $4 Billion». Observer (en inglés estadounidense). Consultado el 10 de junio de 2023.
  17. Turing, Alan M. (1950). «Computing Machinery and Intelligence». Mind 59 (October): 433-60. doi:10.1093/mind/lix.236.433. Consultado el 8 de junio de 2023.
  18. «COMPUTING MACHINERY AND INTELLIGENCE». academic.oup.com. Consultado el 8 de junio de 2023.
  19. McCarthy, J.; Minsky, M. L.; Rochester, N.; Shannon, C. E. (1055). «A PROPOSAL FOR THE DARTMOUTH SUMMER RESEARCH PROJECT ON ARTIFICIAL INTELLIGENCE». Stanford. Consultado el 08/06/2023.
  20. «Stanford CRFM». crfm.stanford.edu. Consultado el 8 de junio de 2023.
  21. Vercelli, Ariel (2018-09). La (des)protección de los datos personales: análisis del caso Facebook Inc. - Cambridge Analytica. Consultado el 8 de junio de 2023.
  22. «TENDENCIAS E IMPACTO DE LA INTELIGENCIA ARTIFICIAL EN COMUNICACIÓN: COBOTIZACIÓN, GIG ECONOMY, CO-CREACIÓN Y GOBERNANZA». revistas.usal.es. Consultado el 8 de junio de 2023.
  23. «Inteligencia artificial y periodismo: Revisión sistemática de la producción científica en Web of Science y Scopus (2008-2019) por Luis Mauricio Calvo Rubio y María José Ufarte Ruiz. – Grupo de investigación Comunicación Pública: Poder, Derecho y Mensaje (COMPUBLIC)». 16 de abril de 2021. Consultado el 8 de junio de 2023.
  24. Sabín, Carlos (28 de febrero de 2020). Contra la posverdad. Sociedad Española de Bioquímica y Biología Molecular. Consultado el 8 de junio de 2023.

Enlaces externos

Este artículo ha sido escrito por Wikipedia. El texto está disponible bajo la licencia Creative Commons - Atribución - CompartirIgual. Pueden aplicarse cláusulas adicionales a los archivos multimedia.