Tecnología
¿Conoces lo nuevo que traen los AirPods para este año?

Como se acostumbra, todos los años la compañía Apple celebra un evento donde presenta sus principales innovaciones del año y en esta ocasión, los AirPods parece que no pasarán desapercibidos.
Por más que la compañía siempre intenta mantener a raya todas sus mejoras para el año siguiente, ya se conoce que, en esta ocasión, la compañía presentará un nuevo puerto y muchas innovaciones para los usuarios de los audífonos más famosos del mundo.
La innovación a la que apuesta Apple con su AirPods
Aunque no existe una información oficial por parte de Apple, ya se ha dado a concoer que en esta oportunidad, los AirPods Pro saldrán al mercado para funcionar con un puerto USB-C y que tendrá un máximo rendimiento con los dispositivos iPhone 15 y 15Pro.

Es importante recordar que, para este año, la compañía tiene pensado sacar el sistema operativo en actualización iOS17. Se espera que la presentación del dispositivo, junto a otros de la gama Apple, se gesten para la segunda o tercera semana del mes de septiembre.
Mejoras que se han filtrado para los nuevos AirPods
Audio adaptativo. Esto significa que, en estos momentos, los audífonos te darán la opción de poder bloquear ciertos sonidos, pero también de recibir algunos otros. De esta manera, podrás estar en la calle, escuchando tus audios, pero de manera segura.
Detección de conversación. No tendrás que preocuparte por quitarte tus AirPods para seguir hablando. Si una persona empieza hablar contigo, los audífonos reducirán el sonido para identificar lo que alguien te dice.

Controles en llamadas. Si te encuentras en una llamada o videollamada, con pulsar una vez los AirPods podrás mutearte o reactivar el micrófono.
Volumen personalizado. Gracias a la inteligencia artificial del iOS17, el dispositivo te permitirá elegir el volumen al cual debe ser recomendado que tú escuches un mensaje en particular.
Hasta el momento, estas son tan sólo algunas de las novedades que presenta los AirPods, sin embargo, una vez que el dispositivo sea presentado por la marca como tal, seguro que aumentarán la cantidad de características y cualidades que tiene el dispositivo ya en el mercado.
Visita nuestras Redes Sociales
- Facebook: @diarioelliberal
- Instagram: @diarioelliberal
- Twitter: @webelliberal
- Tiktok: @diarioelliberal
Visita nuestro portal de noticias Diario El Liberal y agrégalo a tu lista de favoritos
Tecnología
La llegada de Trump impulsó a las grandes tecnológicas a subir ganancias

Aunque si bien en los últimos años se había reportado como debido a los estragos económicos que había causado la pandemia en los Estados Unidos, la noticia sobre la cantidad de empresas que ahora generan mayores beneficios, son una noticia positiva, en medio de la llegada de Donald Trump a la Casa Blanca.
Empresas como Apple, Alphabet, Tesla, Meta, Microsoft y Amazon, tomaron la decisión de aumentar los beneficios económicos a sus trabajadores, así como incluir en la parrilla de trabajadores, nuevamente una cantidad importante de empleos.
Beneficios económicos de tecnológicas estadounidenses aumentaron
La gran mayoría de las empresas tecnológicas de los Estados Unidos, mostraron gran cantidad de avance gracias a la Inteligencia Artificial y la confianza que les generó la victoria de Donald Trump para el país.
En estos momentos, la aplicación DeepSeek, una que amenazaba con tomar control de los Estados Unidos, probablemente no llegara al mercado de manera libre, como se esperaba que sucediera en caso de una derrota de Joe Biden.
Amazon, por ejemplo, reportó un beneficio neto de hasta un 95% con más de 59mil millones de dólares. Aunque el pronóstico de ventas para este primer trimestre de 2025 probablemente no cumpla con las expectativas de los analistas, no deja de tener números más que positivos.
Otra empresa que también reportó números altos fue Aphabet, la cual es propietaria tanto de Google como Youtube. Su beneficio neto fue de un 36% internanual, y su crecimiento supero por allí las expectativas.
Las ganancias de Apple también crecieron en más de un 7% interanual, en el movimiento económico que hacen. Por otra parte, Meta -matriz de Facebook, Instagram y WhatsApp- aumentó sus beneficios un 59 % en 2024, hasta 62.360 millones de dólares, y por su parte Microsoft reportó unos beneficios acumulados de 48.775 millones de dólares en el primer semestre de su ejercicio fiscal 2025, un 10 % más.
¿Abrirán nuevos puestos de empleo en el corto y largo plazo?
Si los números siguen siendo altos para las empresas tecnológicas en el país, es probable que, en el corto plazo, las vacantes de empleados seguramente comenzarán a buscarlas nuevamente.
- Facebook: @diarioelliberal
- Instagram: @diarioelliberal
- Twitter: @webelliberal
- Tiktok: @diarioelliberal
Visita nuestro portal de noticias Diario El Liberal y agrégalo a tu lista de favoritos.
Tecnología
DeepSeek: La Revolución de la Inteligencia Artificial que Desafía a los Gigantes
El nuevo modelo chino de IA que promete cambiar el panorama tecnológico global.

DeepSeek, el nuevo modelo chino de inteligencia artificial (IA), ha sacudido el mundo digital, deslumbrando a los inversionistas y hundiendo las acciones de algunas empresas tecnológicas, tras saltar a la cima de descargas de aplicaciones en Apple Store.
Fue lanzada el 20 de enero y rápidamente cautivó a los adeptos de la informática antes de llamar la atención de toda la industria tecnológica y del mundo.
El presidente de Estados Unidos, Donald Trump, calificó el fenómeno como una «llamada de alarma» para las empresas de ese país que deberán concentrarse en «competir para ganar».
Lo que hace a DeepSeek tan especial es la afirmación de sus creadores de que fue producida a una fracción del costo de otros modelos en la vanguardia de la industria como el ChatGPT de OpenAI, porque utiliza menos chips de tecnología avanzada.
DeepSeek, el último de una serie de modelos desarrollados con pocos chips y bajo coste, desafía el dominio de gigantes como OpenAI, Google y Meta.
El gran modelo lingüístico (LLM) del laboratorio chino de inteligencia artificial DeepSeek ha sorprendido a Silicon Valley al convertirse en uno de los mayores competidores de ChatGPT, de la empresa estadounidense OpenAI. Su irrupción ha sacudido a los mercados estadounidenses.
Los últimos modelos de DeepSeek, lanzados este mes, son extremadamente rápidos y baratos. El DeepSeek-R1, el último de los modelos desarrollados con menos chips, desafía el dominio de gigantes como OpenAI, Google y Meta.
He aquí DeepSeek en ocho preguntas:
1. ¿De dónde viene DeepSeek?
La empresa, con sede en Hangzhou (China), fue fundada en julio de 2023 por Liang Wenfeng, ingeniero informático y electrónico licenciado por la Universidad de Zhejiang. Formaba parte del programa de incubación de High-Flyer, un fondo que Liang fundó en 2015. Liang, como otros nombres destacados del sector, aspira a alcanzar el nivel de «inteligencia general artificial» que pueda alcanzar o superar a los humanos en diversas tareas.
DeepSeek, el último de una serie de modelos desarrollados con pocos chips y bajo coste, desafía el dominio de gigantes como OpenAI, Google y Meta.
El gran modelo lingüístico (LLM) del laboratorio chino de inteligencia artificial DeepSeek ha sorprendido a Silicon Valley al convertirse en uno de los mayores competidores de ChatGPT, de la empresa estadounidense OpenAI. Su irrupción ha sacudido a los mercados estadounidenses.
Los últimos modelos de DeepSeek, lanzados este mes, son extremadamente rápidos y baratos. El DeepSeek-R1, el último de los modelos desarrollados con menos chips, desafía el dominio de gigantes como OpenAI, Google y Meta.
He aquí DeepSeek en ocho preguntas:
1. ¿De dónde viene DeepSeek?
La empresa, con sede en Hangzhou (China), fue fundada en julio de 2023 por Liang Wenfeng, ingeniero informático y electrónico licenciado por la Universidad de Zhejiang. Formaba parte del programa de incubación de High-Flyer, un fondo que Liang fundó en 2015. Liang, como otros nombres destacados del sector, aspira a alcanzar el nivel de «inteligencia general artificial» que pueda alcanzar o superar a los humanos en diversas tareas.
Al operar de forma independiente, el modelo de financiación de DeepSeek le permite llevar a cabo ambiciosos proyectos de IA sin la presión de inversores externos y priorizar la investigación y el desarrollo a largo plazo. El equipo de DeepSeek está formado por jóvenes licenciados con talento de las mejores universidades chinas y fomenta la cultura de la innovación. El proceso de contratación de la empresa da prioridad a las aptitudes técnicas sobre la experiencia laboral. En definitiva, se considera que tiene una nueva perspectiva en el proceso de desarrollo de modelos de inteligencia artificial.
La trayectoria de DeepSeek comenzó en noviembre de 2023 con el lanzamiento de DeepSeek Coder, un modelo de código abierto diseñado para tareas de codificación. Le siguió DeepSeek LLM, cuyo objetivo era competir con otros grandes modelos lingüísticos. DeepSeek-V2, lanzado en mayo de 2024, ganó adeptos gracias a su gran rendimiento y bajo coste. También obligó a otros grandes gigantes tecnológicos chinos como ByteDance, Tencent, Baidu y Alibaba a bajar los precios de sus modelos de IA.
2. ¿Cuál es la capacidad de los modelos DeepSeek?
DeepSeek-V2 fue sustituido posteriormente por DeepSeek-Coder-V2, un modelo más avanzado con 236.000 millones de parámetros. Diseñado para peticiones de codificación complejas, el modelo tiene una ventana de contexto elevada de hasta 128.000 tokens. Una ventana de contexto de 128.000 tokens es la longitud máxima de texto de entrada que el modelo puede procesar simultáneamente.
Una ventana de contexto más amplia permite al modelo comprender, resumir o analizar textos más largos. Esto supone una gran ventaja, por ejemplo, cuando se trabaja con documentos largos, libros o diálogos complejos. Un token es una unidad de un texto. A menudo, esta unidad puede ser una palabra, una partícula (como «artificial» e «inteligencia») o incluso un carácter. Por ejemplo: «¡La inteligencia artificial es genial!» puede constar de cuatro tokens: Artificial», «inteligencia», «genial», «!».
Los últimos modelos de la empresa, DeepSeek-V3 y DeepSeek-R1, han consolidado aún más su posición. DeepSeek-V3, un modelo de 671.000 parámetros, requiere muchos menos recursos que sus homólogos, al tiempo que obtiene unos resultados impresionantes en diversas pruebas comparativas con otras marcas. El DeepSeek-R1, lanzado en enero de 2025, se centra en tareas complejas como el razonamiento, la codificación y las matemáticas. Con sus capacidades en este ámbito, desafía al o1, uno de los últimos modelos de ChatGPT.
Aunque DeepSeek ha logrado un éxito significativo en poco tiempo, ‘Forbes’ escribió que la empresa se centra principalmente en la investigación y no tiene planes detallados de comercialización en un futuro próximo.
3. ¿Es gratuito para el usuario?
Una de las principales razones por las que DeepSeek ha logrado atraer la atención es que es gratuito para los usuarios finales. De hecho, se trata del primer sistema de inteligencia artificial avanzada de este tipo a disposición de los usuarios de forma gratuita. Otros sistemas potentes como OpenAI o1 y Claude Sonnet requieren una suscripción de pago. Incluso algunas suscripciones imponen cuotas a los usuarios.
Google Gemini también está disponible de forma gratuita, pero las versiones gratuitas se limitan a los modelos más antiguos. DeepSeek no tiene limitaciones por ahora.
4. ¿Cómo utilizarlo?
Los usuarios pueden acceder a la interfaz de chat de DeepSeek desarrollada para el usuario final en chat.deepseek. Basta con introducir comandos en la pantalla de chat y pulsar el botón ‘search’ para buscar en internet.
Existe la opción ‘deep think’ para obtener información más detallada sobre cualquier tema. Aunque esta opción proporciona respuestas más detalladas a las peticiones de los usuarios, también puede buscar más sitios en el buscador. Sin embargo, a diferencia de ChatGPT, que sólo busca basándose en determinadas fuentes, esta función también puede revelar información falsa en algunos sitios pequeños. Por lo tanto, los usuarios necesitan confirmar la información que obtienen en este chat bot.
Los usuarios que han utilizado esta IA han comentado sus limitaciones a la hora de tratar ciertos temas políticos e históricos en China.
5. ¿Es seguro?
Otra pregunta importante sobre el uso de DeepSeek es si es seguro. DeepSeek, al igual que otros servicios, requiere datos del usuario, que probablemente se almacenan en servidores en China.
Como con cualquier LLM, es importante que los usuarios no den datos sensibles al chatbot. Como DeepSeek también es de código abierto, investigadores independientes pueden examinar el código del modelo e intentar determinar si es seguro. Se espera que en los próximos días se publique información más detallada sobre los problemas de seguridad.
6. ¿Qué significa código abierto?
Los modelos, incluido DeepSeek-R1, se han publicado en su mayor parte como código abierto. Esto significa que cualquiera puede acceder al código de la herramienta y utilizarlo para personalizar el LLM. Los datos de entrenamiento están protegidos.
OpenAI, por su parte, había liberado el modelo o1 cerrado y ya lo está vendiendo sólo a usuarios, incluso a usuarios, con paquetes de 20 a 200 dólares al mes.
7. ¿Cómo ha conseguido producir un modelo así a pesar de las restricciones de EE.UU.?
La empresa también ha establecido colaboraciones estratégicas para mejorar sus capacidades tecnológicas y su alcance en el mercado. Una de las colaboraciones notables fue con la empresa estadounidense de chips AMD. Según ‘Forbes’, DeepSeek utilizó las GPU (unidades de procesamiento gráfico) AMD Instinct y el software ROCM en fases clave del desarrollo del modelo, sobre todo para DeepSeek-V3.
MIT Technology Review informó de que Liang había adquirido importantes existencias de chips Nvidia A100, un tipo cuya exportación a China está actualmente prohibida, mucho antes de las sanciones impuestas por Estados Unidos a China. El medio de comunicación chino ’36Kr’ calcula que la empresa tiene más de 10.000 unidades en stock. Algunos dicen que esta cifra asciende a 50.000. Al darse cuenta de la importancia de estas existencias para el entrenamiento de la IA, Liang fundó DeepSeek y empezó a utilizarlas junto con chips de bajo consumo para mejorar sus modelos.
Pero lo importante aquí es que Liang ha encontrado la forma de construir modelos competentes con pocos recursos. Las restricciones estadounidenses a la exportación de chips obligaron a los desarrolladores de DeepSeek a crear algoritmos más inteligentes y eficientes energéticamente para compensar su falta de potencia de cálculo. Se cree que ChatGPT necesita 10.000 GPU de Nvidia para procesar los datos de entrenamiento. Los ingenieros de DeepSeek afirman haber conseguido resultados similares con sólo 2.000 GPU.
8. ¿Cuáles son las técnicas innovadoras de DeepSeek?
El éxito de DeepSeek puede atribuirse a varias innovaciones importantes.
Aprendizaje por refuerzo: a diferencia de los métodos tradicionales, que dependen en gran medida del ajuste fino supervisado, DeepSeek utiliza RL puro, según el tecnólogo Janakiram MSV. En el perfeccionamiento supervisado, el modelo suele entrenarse en un gran conjunto de datos antes del perfeccionamiento. El uso de la RL pura significa que un sistema de IA se entrena utilizando únicamente métodos de aprendizaje por refuerzo. Esto significa que el modelo aprende únicamente a través de mecanismos de recompensa y castigo, sin datos extraídos por humanos ni métodos de aprendizaje supervisado. Este enfoque es especialmente eficaz para mejorar las capacidades de razonamiento de DeepSeek-R1.
Arquitectura MoE: la arquitectura Mixture of Experts, o Mezcla de Expertos, es un sistema innovador de diferentes expertos en modelos de inteligencia artificial. Aquí, se seleccionan varios expertos como los más adecuados para la entrada del usuario y sólo ellos trabajan. De este modo, se aumenta el rendimiento de los grandes modelos y se reduce el coste de procesamiento. Se puede pensar en ello como un equipo de expertos, cada uno especializado en un área diferente. Ante una tarea, sólo se recurre a los expertos pertinentes, lo que garantiza un uso eficiente de los recursos y la experiencia.
Atención latente multicabezal: este método permite a un modelo aprender las relaciones entre las representaciones latentes y las entradas utilizando diferentes cabezales de atención. Sirve para procesar la información de forma más flexible, potente y detallada. Se puede considerar como múltiples «cabezas de atención» que pueden centrarse en distintas partes de los datos de entrada, lo que permite al modelo comprender la información de forma más exhaustiva.
Destilación: DeepSeek utiliza técnicas de destilación para transferir los conocimientos y capacidades de modelos más grandes a otros más pequeños y eficientes. Esto es similar a cuando un profesor transfiere conocimientos a un alumno. Permite al alumno realizar tareas de similar competencia pero con menos experiencia o recursos. El proceso de destilación de DeepSeek permite que los modelos más pequeños hereden las capacidades avanzadas de razonamiento y procesamiento del lenguaje de sus homólogos más grandes, haciéndolos más versátiles y accesibles.
En resumen, al utilizar arquitecturas eficientes como RL y MoE, DeepSeek reduce significativamente los recursos computacionales necesarios para el entrenamiento y puede completarlo con menores costes. Por ejemplo, DeepSeek-V3 se entrenó por una fracción del coste de los modelos de Meta.
Alexandr Wang, consejero delegado de ScaleAI, que proporciona datos de entrenamiento a los modelos de IA de grandes empresas como OpenAI y Google,describió el producto de DeepSeek como «un modelo revolucionario» en un discurso pronunciado el jueves en el Foro Económico Mundial (FEM) de Davos (Suiza).
Entretenimiento
Megacohete de Elon Musk explota en el Caribe

Lo que parecía un gran día para SpaceX, terminó siendo una verdadera tragedia. Su séptimo vuelo de prueba de Starhip acabó sobre el Caribe, lo que provocó el desvío incluso de algunos aviones, por consecuencia del fallo de la compañía de Elon Musk.
El objetivo en estos momentos de Starship y de Elon Musk, es que existan nuevos astronautas que pisen la luna. Este hito no se ha logrado repetir desde el año de 1972.
Explota la nave antes de salir al espacio
Starship había tomado como fecha de despegue, el 16 de enero como algo histórico. Sin embargo, el megacohete que partió desde Boca China (Texas, EEUU), comenzó a elevarse y llegó a tener 143 kilómetros de altura y una velocidad de 19.000 kilómetros por hora.
Una vez que comenzó a intentar penetrar para ingresar en el espacio, la nave explotó sobre el Caribe aproximadamente a las 23:37 hora peninsular española.
Debido a la explosión de esta nave no tripulada, hubo que informar a los espacios aéreos de todo el mundo, pus se generaron desvío de aviones en la zona.
La información fue dada a conocer por la Agencia Federal de Aviación de Estados Unidos. De hecho, el organismo estadounidense puede pedir una revisión exhaustiva a Space X por lo sucedido. De momento, Elon Musk y su compañía siguen sin cumplir con los objetivos que se tenían previstos a principio de año.
Lluvia de objetos voladores en el Caribe fueron noticia en la red social de Elon Musk
Aunque si bien Starship mostró que el propulsor Booster 14 logró impulsar al cohete y volver nuevamente a la base de salida de manera controlada, luego de generarse la separación del propulsor, se generó la falla.
Se dice que desde SpaceX hubo pérdida de comunicación con la nave, y en cuestión de minutos, se viralizó como había una lluvia espacial sobre las islas del Caribe.
De hecho, uno de los que hizo eco de la noticia, fue el propio Elon Musk a través de la red social X. En ella, publicó una imagen sobre las Islas Trucas y Caicos y agregó un comentario: “El éxito es incierto, pero el entretenimiento está garantizado”.
¿Y tú? ¿Crees que puedas tener éxito Elon Musk con su compañía de cara al largo plazo?
- Facebook: @diarioelliberal
- Instagram: @diarioelliberal
- Twitter: @webelliberal
- Tiktok: @diarioelliberal
Visita nuestro portal de noticias Diario El Liberal y agrégalo a tu lista de favoritos.
-
Internacional1 semana ago
64 muertos en EEUU por accidente en Washington
-
Entretenimiento2 semanas ago
Erika Schwarzgruber ataca al cirujano plástico Froilan Páez
-
Venezuela2 semanas ago
Recursos Aumentados: El Futuro de las Gobernaciones y Alcaldías en Venezuela
-
Sucesos2 semanas ago
GNB Incauta Más de 53 Kilos de Marihuana en Los Roques
-
Internacional2 semanas ago
TPS que beneficio a venezolanos es revocado por Administración Trump
-
Entretenimiento2 semanas ago
MrBeast detrás de comprar Tiktok en los Estados Unidos
-
Internacional2 semanas ago
Trump Prohíbe Banderas LGBT+ y BLM
-
Política6 días ago
Dirigencia juvenil de AD llama a inscribirse en el registro electoral