Connect with us

Tecnología

¿Qué es Threads? Conoce la nueva aplicación de Mark Zuckerberg que rivalizará con Twitter

Compartir

El enfrentamiento entre Mark Zuckerberg y Elon Musk toma un giro inesperado. No solo se habla de un posible duelo de boxeo, sino que ambos magnates pretenden conquistar el mercado de las redes sociales de contenido instantáneo.

Foto del avatar

Published

on

Compartir

Twitter atraviesa uno de sus peores momentos; no obstante, no existen alternativas en el mercado que se equiparen a esta app. Cabe recordar que a finales de junio, los usuarios empezaron a experimentar fallos de funcionamiento en México, Estados Unidos y Canadá. Problemas que posteriormente se extendieron al resto del mundo.

Según detallan expertos en tecnología y el mismo Elon Musk, se trata de una sobrecarga de los servidores. No es realmente un ataque artificial, sino que se trata de los servicios de Inteligencia Artificial que están extrayendo el contenido de los tuits para entrenar diferentes aplicaciones o modelos de texto.

Hay tantos competidores en el mercado que buscan fuentes gratuitas de contenido escrito que terminan por abusar de lo que publica la gente en diferentes redes sociales. Por este motivo, Musk, junto al equipo de técnicos, anunció que desde ahora las cuentas solo podrán ver una cantidad limitada de tuits.

Meta de Mark Zuckerberg entra en acción

El dueño de Facebook ya tenía entre manos un proyecto que busca competir con Twitter y parece que aprovechará el peor momento de su rival para captar a los usuarios que están hartos de los maltratos o de las decisiones de Musk en Twitter.

El nombre de la aplicación será Threads o Hilos. Básicamente, se trata de una red social en donde los usuarios de Facebook podrán utilizar las credenciales ya creadas para tener un perfil. Al igual que Twitter, permitirá crear textos cortos, compartir contenido multimedia y comentar en el mismo hilo todo lo que queramos.

Threads es donde las comunidades se reúnen para discutir todo, desde los temas que te interesan hoy hasta lo que será tendencia mañana. Independientemente de lo que le interese, puede seguir y conectarse directamente con sus creadores favoritos y otros a los que les encantan las mismas cosas, o crear seguidores leales propios para compartir sus ideas, opiniones y creatividad con el mundo”, se lee en la descripción de la aplicación en App Store de Apple.

Para darle mayor personalización y que no se parezca a la app del pajarito azul, Threads tendrán una apariencia similar a la caja de comentarios de Instagram. ¿Podrá sacarle usuarios a Twitter? Solo el tiempo dirá.

Recordemos que Donald Trump también se lanzó al mercado de aplicaciones móviles con su propia app llamada Truth Social, la cual fue una respuesta del magnate cuando fue ‘baneado’ o suspendido de Twitter por presuntamente incentivar las revueltas y la toma del Capitolio de los Estados Unidos.

Visita nuestras Redes Sociales

Facebook: @diarioelliberal

Instagram: @diarioelliberal

Twitter: @webelliberal

Tiktok: @diarioelliberal

Si te interesa saber más sobre este y otros temas visita Diario El Liberal y agrégalo a tu lista de favoritos.

Continue Reading
Advertisement
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Tecnología

DeepSeek: La Revolución de la Inteligencia Artificial que Desafía a los Gigantes

Compartir

El nuevo modelo chino de IA que promete cambiar el panorama tecnológico global.

Foto del avatar

Published

on

DeepSeek: La Revolución de la Inteligencia Artificial que Desafía a los Gigantes
/ Foto referencial: Archivo
Compartir

DeepSeek, el nuevo modelo chino de inteligencia artificial (IA), ha sacudido el mundo digital, deslumbrando a los inversionistas y hundiendo las acciones de algunas empresas tecnológicas, tras saltar a la cima de descargas de aplicaciones en Apple Store.

Fue lanzada el 20 de enero y rápidamente cautivó a los adeptos de la informática antes de llamar la atención de toda la industria tecnológica y del mundo.

El presidente de Estados Unidos, Donald Trump, calificó el fenómeno como una «llamada de alarma» para las empresas de ese país que deberán concentrarse en «competir para ganar».

Lo que hace a DeepSeek tan especial es la afirmación de sus creadores de que fue producida a una fracción del costo de otros modelos en la vanguardia de la industria como el ChatGPT de OpenAI, porque utiliza menos chips de tecnología avanzada.

 

DeepSeek, el último de una serie de modelos desarrollados con pocos chips y bajo coste, desafía el dominio de gigantes como OpenAI, Google y Meta.

El gran modelo lingüístico (LLM) del laboratorio chino de inteligencia artificial DeepSeek ha sorprendido a Silicon Valley al convertirse en uno de los mayores competidores de ChatGPT, de la empresa estadounidense OpenAI. Su irrupción ha sacudido a los mercados estadounidenses.

Los últimos modelos de DeepSeek, lanzados este mes, son extremadamente rápidos y baratos. El DeepSeek-R1, el último de los modelos desarrollados con menos chips, desafía el dominio de gigantes como OpenAI, Google y Meta.

He aquí DeepSeek en ocho preguntas:

1. ¿De dónde viene DeepSeek?

La empresa, con sede en Hangzhou (China), fue fundada en julio de 2023 por Liang Wenfeng, ingeniero informático y electrónico licenciado por la Universidad de Zhejiang. Formaba parte del programa de incubación de High-Flyer, un fondo que Liang fundó en 2015. Liang, como otros nombres destacados del sector, aspira a alcanzar el nivel de «inteligencia general artificial» que pueda alcanzar o superar a los humanos en diversas tareas.

DeepSeek, el último de una serie de modelos desarrollados con pocos chips y bajo coste, desafía el dominio de gigantes como OpenAI, Google y Meta.

El gran modelo lingüístico (LLM) del laboratorio chino de inteligencia artificial DeepSeek ha sorprendido a Silicon Valley al convertirse en uno de los mayores competidores de ChatGPT, de la empresa estadounidense OpenAI. Su irrupción ha sacudido a los mercados estadounidenses.

Los últimos modelos de DeepSeek, lanzados este mes, son extremadamente rápidos y baratos. El DeepSeek-R1, el último de los modelos desarrollados con menos chips, desafía el dominio de gigantes como OpenAI, Google y Meta.

He aquí DeepSeek en ocho preguntas:

1. ¿De dónde viene DeepSeek?

La empresa, con sede en Hangzhou (China), fue fundada en julio de 2023 por Liang Wenfeng, ingeniero informático y electrónico licenciado por la Universidad de Zhejiang. Formaba parte del programa de incubación de High-Flyer, un fondo que Liang fundó en 2015. Liang, como otros nombres destacados del sector, aspira a alcanzar el nivel de «inteligencia general artificial» que pueda alcanzar o superar a los humanos en diversas tareas.

Al operar de forma independiente, el modelo de financiación de DeepSeek le permite llevar a cabo ambiciosos proyectos de IA sin la presión de inversores externos y priorizar la investigación y el desarrollo a largo plazo. El equipo de DeepSeek está formado por jóvenes licenciados con talento de las mejores universidades chinas y fomenta la cultura de la innovación. El proceso de contratación de la empresa da prioridad a las aptitudes técnicas sobre la experiencia laboral. En definitiva, se considera que tiene una nueva perspectiva en el proceso de desarrollo de modelos de inteligencia artificial.

La trayectoria de DeepSeek comenzó en noviembre de 2023 con el lanzamiento de DeepSeek Coder, un modelo de código abierto diseñado para tareas de codificación. Le siguió DeepSeek LLM, cuyo objetivo era competir con otros grandes modelos lingüísticos. DeepSeek-V2, lanzado en mayo de 2024, ganó adeptos gracias a su gran rendimiento y bajo coste. También obligó a otros grandes gigantes tecnológicos chinos como ByteDance, Tencent, Baidu y Alibaba a bajar los precios de sus modelos de IA.

2. ¿Cuál es la capacidad de los modelos DeepSeek?

DeepSeek-V2 fue sustituido posteriormente por DeepSeek-Coder-V2, un modelo más avanzado con 236.000 millones de parámetros. Diseñado para peticiones de codificación complejas, el modelo tiene una ventana de contexto elevada de hasta 128.000 tokens. Una ventana de contexto de 128.000 tokens es la longitud máxima de texto de entrada que el modelo puede procesar simultáneamente.

Una ventana de contexto más amplia permite al modelo comprender, resumir o analizar textos más largos. Esto supone una gran ventaja, por ejemplo, cuando se trabaja con documentos largos, libros o diálogos complejos. Un token es una unidad de un texto. A menudo, esta unidad puede ser una palabra, una partícula (como «artificial» e «inteligencia») o incluso un carácter. Por ejemplo: «¡La inteligencia artificial es genial!» puede constar de cuatro tokens: Artificial», «inteligencia», «genial», «!».

Los últimos modelos de la empresa, DeepSeek-V3 y DeepSeek-R1, han consolidado aún más su posición. DeepSeek-V3, un modelo de 671.000 parámetros, requiere muchos menos recursos que sus homólogos, al tiempo que obtiene unos resultados impresionantes en diversas pruebas comparativas con otras marcas. El DeepSeek-R1, lanzado en enero de 2025, se centra en tareas complejas como el razonamiento, la codificación y las matemáticas. Con sus capacidades en este ámbito, desafía al o1, uno de los últimos modelos de ChatGPT.

Aunque DeepSeek ha logrado un éxito significativo en poco tiempo, ‘Forbes’ escribió que la empresa se centra principalmente en la investigación y no tiene planes detallados de comercialización en un futuro próximo.

3. ¿Es gratuito para el usuario?

Una de las principales razones por las que DeepSeek ha logrado atraer la atención es que es gratuito para los usuarios finales. De hecho, se trata del primer sistema de inteligencia artificial avanzada de este tipo a disposición de los usuarios de forma gratuita. Otros sistemas potentes como OpenAI o1 y Claude Sonnet requieren una suscripción de pago. Incluso algunas suscripciones imponen cuotas a los usuarios.

Google Gemini también está disponible de forma gratuita, pero las versiones gratuitas se limitan a los modelos más antiguos. DeepSeek no tiene limitaciones por ahora.

4. ¿Cómo utilizarlo?

Los usuarios pueden acceder a la interfaz de chat de DeepSeek desarrollada para el usuario final en chat.deepseek. Basta con introducir comandos en la pantalla de chat y pulsar el botón ‘search’ para buscar en internet.

Existe la opción ‘deep think’ para obtener información más detallada sobre cualquier tema. Aunque esta opción proporciona respuestas más detalladas a las peticiones de los usuarios, también puede buscar más sitios en el buscador. Sin embargo, a diferencia de ChatGPT, que sólo busca basándose en determinadas fuentes, esta función también puede revelar información falsa en algunos sitios pequeños. Por lo tanto, los usuarios necesitan confirmar la información que obtienen en este chat bot.

Los usuarios que han utilizado esta IA han comentado sus limitaciones a la hora de tratar ciertos temas políticos e históricos en China.

5. ¿Es seguro?

Otra pregunta importante sobre el uso de DeepSeek es si es seguro. DeepSeek, al igual que otros servicios, requiere datos del usuario, que probablemente se almacenan en servidores en China.

Como con cualquier LLM, es importante que los usuarios no den datos sensibles al chatbot. Como DeepSeek también es de código abierto, investigadores independientes pueden examinar el código del modelo e intentar determinar si es seguro. Se espera que en los próximos días se publique información más detallada sobre los problemas de seguridad.

6. ¿Qué significa código abierto?

Los modelos, incluido DeepSeek-R1, se han publicado en su mayor parte como código abierto. Esto significa que cualquiera puede acceder al código de la herramienta y utilizarlo para personalizar el LLM. Los datos de entrenamiento están protegidos.

OpenAI, por su parte, había liberado el modelo o1 cerrado y ya lo está vendiendo sólo a usuarios, incluso a usuarios, con paquetes de 20 a 200 dólares al mes.

7. ¿Cómo ha conseguido producir un modelo así a pesar de las restricciones de EE.UU.?

La empresa también ha establecido colaboraciones estratégicas para mejorar sus capacidades tecnológicas y su alcance en el mercado. Una de las colaboraciones notables fue con la empresa estadounidense de chips AMD. Según ‘Forbes’, DeepSeek utilizó las GPU (unidades de procesamiento gráfico) AMD Instinct y el software ROCM en fases clave del desarrollo del modelo, sobre todo para DeepSeek-V3.

MIT Technology Review informó de que Liang había adquirido importantes existencias de chips Nvidia A100, un tipo cuya exportación a China está actualmente prohibida, mucho antes de las sanciones impuestas por Estados Unidos a China. El medio de comunicación chino ’36Kr’ calcula que la empresa tiene más de 10.000 unidades en stock. Algunos dicen que esta cifra asciende a 50.000. Al darse cuenta de la importancia de estas existencias para el entrenamiento de la IA, Liang fundó DeepSeek y empezó a utilizarlas junto con chips de bajo consumo para mejorar sus modelos.

Pero lo importante aquí es que Liang ha encontrado la forma de construir modelos competentes con pocos recursos. Las restricciones estadounidenses a la exportación de chips obligaron a los desarrolladores de DeepSeek a crear algoritmos más inteligentes y eficientes energéticamente para compensar su falta de potencia de cálculo. Se cree que ChatGPT necesita 10.000 GPU de Nvidia para procesar los datos de entrenamiento. Los ingenieros de DeepSeek afirman haber conseguido resultados similares con sólo 2.000 GPU.

8. ¿Cuáles son las técnicas innovadoras de DeepSeek?

El éxito de DeepSeek puede atribuirse a varias innovaciones importantes.

Aprendizaje por refuerzo: a diferencia de los métodos tradicionales, que dependen en gran medida del ajuste fino supervisado, DeepSeek utiliza RL puro, según el tecnólogo Janakiram MSV. En el perfeccionamiento supervisado, el modelo suele entrenarse en un gran conjunto de datos antes del perfeccionamiento. El uso de la RL pura significa que un sistema de IA se entrena utilizando únicamente métodos de aprendizaje por refuerzo. Esto significa que el modelo aprende únicamente a través de mecanismos de recompensa y castigo, sin datos extraídos por humanos ni métodos de aprendizaje supervisado. Este enfoque es especialmente eficaz para mejorar las capacidades de razonamiento de DeepSeek-R1.

Arquitectura MoE: la arquitectura Mixture of Experts, o Mezcla de Expertos, es un sistema innovador de diferentes expertos en modelos de inteligencia artificial. Aquí, se seleccionan varios expertos como los más adecuados para la entrada del usuario y sólo ellos trabajan. De este modo, se aumenta el rendimiento de los grandes modelos y se reduce el coste de procesamiento. Se puede pensar en ello como un equipo de expertos, cada uno especializado en un área diferente. Ante una tarea, sólo se recurre a los expertos pertinentes, lo que garantiza un uso eficiente de los recursos y la experiencia.

Atención latente multicabezal: este método permite a un modelo aprender las relaciones entre las representaciones latentes y las entradas utilizando diferentes cabezales de atención. Sirve para procesar la información de forma más flexible, potente y detallada. Se puede considerar como múltiples «cabezas de atención» que pueden centrarse en distintas partes de los datos de entrada, lo que permite al modelo comprender la información de forma más exhaustiva.

Destilación: DeepSeek utiliza técnicas de destilación para transferir los conocimientos y capacidades de modelos más grandes a otros más pequeños y eficientes. Esto es similar a cuando un profesor transfiere conocimientos a un alumno. Permite al alumno realizar tareas de similar competencia pero con menos experiencia o recursos. El proceso de destilación de DeepSeek permite que los modelos más pequeños hereden las capacidades avanzadas de razonamiento y procesamiento del lenguaje de sus homólogos más grandes, haciéndolos más versátiles y accesibles.

En resumen, al utilizar arquitecturas eficientes como RL y MoE, DeepSeek reduce significativamente los recursos computacionales necesarios para el entrenamiento y puede completarlo con menores costes. Por ejemplo, DeepSeek-V3 se entrenó por una fracción del coste de los modelos de Meta.

Alexandr Wang, consejero delegado de ScaleAI, que proporciona datos de entrenamiento a los modelos de IA de grandes empresas como OpenAI y Google,describió el producto de DeepSeek como «un modelo revolucionario» en un discurso pronunciado el jueves en el Foro Económico Mundial (FEM) de Davos (Suiza).

Continue Reading

Entretenimiento

Megacohete de Elon Musk explota en el Caribe

Published

on

Avión de Elon Musk
Compartir

Lo que parecía un gran día para SpaceX, terminó siendo una verdadera tragedia. Su séptimo vuelo de prueba de Starhip acabó sobre el Caribe, lo que provocó el desvío incluso de algunos aviones, por consecuencia del fallo de la compañía de Elon Musk.

El objetivo en estos momentos de Starship y de Elon Musk, es que existan nuevos astronautas que pisen la luna. Este hito no se ha logrado repetir desde el año de 1972.

Explota la nave antes de salir al espacio

Starship había tomado como fecha de despegue, el 16 de enero como algo histórico. Sin embargo, el megacohete que partió desde Boca China (Texas, EEUU), comenzó a elevarse y llegó a tener 143 kilómetros de altura y una velocidad de 19.000 kilómetros por hora.

Una vez que comenzó a intentar penetrar para ingresar en el espacio, la nave explotó sobre el Caribe aproximadamente a las 23:37 hora peninsular española.

Una nave espacial de SpaceX explota en los cielos de las Antillas

Debido a la explosión de esta nave no tripulada, hubo que informar a los espacios aéreos de todo el mundo, pus se generaron desvío de aviones en la zona.

La información fue dada a conocer por la Agencia Federal de Aviación de Estados Unidos. De hecho, el organismo estadounidense puede pedir una revisión exhaustiva a Space X por lo sucedido. De momento, Elon Musk y su compañía siguen sin cumplir con los objetivos que se tenían previstos a principio de año.

Lluvia de objetos voladores en el Caribe fueron noticia en la red social de Elon Musk

Aunque si bien Starship mostró que el propulsor Booster 14 logró impulsar al cohete y volver nuevamente a la base de salida de manera controlada, luego de generarse la separación del propulsor, se generó la falla.

Se dice que desde SpaceX hubo pérdida de comunicación con la nave, y en cuestión de minutos, se viralizó como había una lluvia espacial sobre las islas del Caribe.

De hecho, uno de los que hizo eco de la noticia, fue el propio Elon Musk a través de la red social X. En ella, publicó una imagen sobre las Islas Trucas y Caicos y agregó un comentario: “El éxito es incierto, pero el entretenimiento está garantizado”.

¿Y tú? ¿Crees que puedas tener éxito Elon Musk con su compañía de cara al largo plazo?  

  • Facebook: @diarioelliberal

  • Instagram: @diarioelliberal

  • Twitter: @webelliberal

  • Tiktok: @diarioelliberal

Visita nuestro portal de noticias Diario El Liberal y agrégalo a tu lista de favoritos.

Continue Reading

Tecnología

La Demolición del Flint Center: Un Adiós a la Historia de Apple

Compartir

Reflexiones sobre el legado del auditorio donde Steve Jobs cambió el mundo de la tecnología.

Foto del avatar

Published

on

El legado del auditorio donde Steve Jobs cambió el mundo de la tecnología.
/ Foto referencial: applesfera.com
Compartir

El Flint Center, un lugar emblemático en la historia de Apple, ha sido testigo de momentos que definieron la informática moderna. Desde su inauguración hasta su cierre, este auditorio ha albergado eventos cruciales que marcaron el rumbo de una de las empresas más influyentes del mundo. Sin embargo, en 2024, las excavadoras han comenzado a trabajar en lo que alguna vez fue el escenario donde Steve Jobs presentó el primer Macintosh, dejando atrás solo escombros y nostalgia.

Ubicado a menos de un kilómetro de las primeras oficinas de Apple en Stevens Creek Boulevard, el Flint Center fue inaugurado para recibir hasta 2,400 asistentes. Su primera gran aparición fue en 1981 durante una reunión de accionistas. Pero fue el 24 de enero de 1984 cuando se convirtió en leyenda. En ese día histórico, Jobs, con su icónico traje y pajarita, presentó el Macintosh, un evento que no solo marcó el inicio de una nueva era en la informática personal, sino que también quedó grabado en la memoria colectiva gracias a su potente mensaje y estilo inconfundible.

El auditorio continuó siendo un lugar significativo para Apple durante décadas. En 2014, Tim Cook eligió este mismo escenario para presentar el iPhone 6 y el Apple Watch, significando la transición hacia una nueva era bajo su liderazgo. Sin embargo, a pesar de su rica historia, el Flint Center sufrió una lenta decadencia. Un estudio reveló que su uso era extremadamente bajo, con solo un 17% a un 24% del tiempo ocupado y apenas siete eventos al año superando los 2,000 asistentes.

Finalmente, la decisión de cerrar el edificio en 2019 llegó tras estimar que se requerirían 50 millones de dólares para renovarlo. La controversia no se hizo esperar; músicos y artistas lamentaron la pérdida de un espacio con una acústica excepcional.

Ahora, mientras las máquinas continúan su trabajo destructivo, nos enfrentamos a un ciclo nostálgico: el lugar donde Jobs nos mostró el futuro dará paso a nuevas instalaciones educativas. Aunque los recuerdos perduran entre quienes vivieron esos momentos históricos, también nos recuerda que incluso los íconos más duraderos no son eternos. La demolición del Flint Center simboliza no solo el fin de un edificio, sino también la culminación de cuatro décadas de innovación tecnológica.

Fuente | The Mercury News 

Continue Reading

lo mas visto