Tecnología
Alexandr Wang, el último ‘unicornio’ de Silicon Valley

Alexandr Wang, el nuevo gran gurú de Silicon Valley, tiene tan solo 25 años, amasa un patrimonio valorado en más de 1.000 millones de dólares y su cara ya copa las páginas de las revistas especializadas en fortunas mareantes. Detrás de su éxito no hay ni apellidos compuestos ni escaparates mediáticos o herencias multimillonarias, sino una audaz visión empresarial.
Hijo de inmigrantes chinos Alexandr Wang fue criado en la base militar de Nuevo México que concibió la primera bomba atómica, este joven empresario ha conseguido que algunas de las mayores compañías del mundo confíen el futuro de su inteligencia artificial al pionero sistema de etiquetado de datos que concibió durante el hastío estival. “Les dije a mis padres que esto iba a ser algo que solo haría durante el verano. Obviamente, nunca más volví a la escuela”, admitía a finales de mayo a Forbes, publicación que le nombraba el nuevo milmillonario hecho a sí mismo más joven del mundo —el mismo título que otorgó en 2019 a Kylie Jenner, la pequeña del clan Kardashian, no sin polémica: Forbes le retiró el título acusándola de mentir.
Alexandr Wang —no confundir con el diseñador de moda de casi idéntico nombre— Alexandr Wang es el cofundador y actual consejero delegado de Scale Al, la startup que creó en 2016 con apenas 19 años. La compañía de San Francisco ha irrumpido con fuerza en la industria tecnológica por sus avances en el etiquetado masivo de datos, convirtiéndose así en el proveedor de decenas de empresas que consiguen mejorar los sistemas de inteligencia artificial gracias a la optimización ofrecida por sus herramientas. Transcripciones de audios, reconocimiento de imágenes, recopilado de documentos… Si históricamente los datos se han utilizado para engrosar gráficos y tablas que solo servían como mero apoyo estadístico a la hora de tomar decisiones, el software desarrollado por Wang ha convertido esta suma de números en respuestas esclarecedoras para corporaciones de todos los sectores.
Empresas tan conocidas como Uber, Airbnb, Toyota, PayPal o General Motors conforman su listado de clientes y hasta el Ejército estadounidense se ha servido de su tecnología de análisis para determinar, por ejemplo, el daño causado por las bombas rusas en territorio ucranio durante los meses de guerra. Scale AI, considerada el último gran unicornio de Silicon Valley —aquellas compañías que alcanzan una valoración de 1.000 millones de dólares sin tener presencia en Bolsa —, ha firmado contratos con las Fuerzas Armadas por valor de 350 millones de dólares y en su junta directiva ya se sientan desde exdirectivos de Amazon hasta el que fuera director de tecnología de Estados Unidos durante el mandato de Donald Trump, Michael Kratsios.
La idea para crear Scale Al se le ocurrió durante su breve periodo como estudiante en el prestigioso MIT, el Instituto Tecnológico de Massachusetts, considerado como una de las mejores universidades del mundo. Wang estaba convencido de que uno de sus compañeros de piso le robaba la comida, así que decidió instalar una cámara dentro del frigorífico para pillar al supuesto ladrón. De la misma forma, también podría recopilar información para predecir cada cuánto tiempo debía volver a hacer la compra. Aunque nunca pudo confirmar sus sospechas por la imposibilidad de distinguir entre las decenas de horas de vídeos grabadas, la coyuntura sí fue el germen de su apuesta por el desarrollo de la inteligencia artificial y la creación de una empresa que sacara todo el potencial de los datos almacenados. Ese mismo verano fundó Scale AI, consiguió que la reputada aceleradora Y Combinator —madre de otras empresas emergentes como Dropbox, Twitch o Airbnb— invirtiera en el proyecto y un par de años más tarde ha logrado que su nombre aparezca en la lista de los jóvenes menores de 30 más ricos del mundo.
Siendo un niño, Wang ya exhibía su talento para los números compitiendo en olimpiadas de matemáticas y concursos de programación por todo el país. De casta le viene al galgo, ya que sus padres trabajaban como físicos en proyectos militares del gobierno estadounidense. Su infancia transcurrió en los alrededores del laboratorio nuclear de Los Álamos, en Nuevo México, el centro científico secreto donde se creó la primera bomba atómica. “Mis padres lograron con su trabajo tener un impacto significativo en nuestra forma de entender el mundo. Por eso decidí convertirme en programador, para marcar yo también la diferencia en el planeta”, aseguró en una presentación Ted el pasado mes de abril. Sin currículo ni experiencia, con 17 años hizo las maletas y cruzó Estados Unidos para llegar a Silicon Valley, donde consiguió un trabajo como programador en la plataforma digital de preguntas y respuestas Quora. Allí conocería a Lucy Guo, a la postre cofundadora de la compañía y que ahora, además de socialité y vecina de famosos como David Beckham, es considerada por el New York Post como “la mayor fiestera de la ciudad de Miami”.
A pesar de no compartir el espíritu festivo de su socia, Wang apuesta por las redes sociales para proyectar su imagen pública. Como cualquier chico de su edad, se sirve de su cuenta de Twitter (donde acumula algo más de 20.000 seguidores) para comentar sus impresiones sobre la nueva película de Spider-Man y hasta escribe un blog en el que comparte los secretos de su éxito y ofrece consejos para futuros emprendedores. Por ejemplo, que una actitud optimista es fundamental para alcanzar cualquier logro o que la fórmula más simple para triunfar es contratar a empleados a los que les importe la empresa y sus objetivos. A él parece haberle funcionado: en su última ronda de financiación, Scale Al ha recaudado 325 millones de dólares (303 millones de euros) y goza de una valoración actual superior a los 7.000 millones de dólares (6.530 millones de euros).
Tecnología
DeepSeek: La Revolución de la Inteligencia Artificial que Desafía a los Gigantes
El nuevo modelo chino de IA que promete cambiar el panorama tecnológico global.

DeepSeek, el nuevo modelo chino de inteligencia artificial (IA), ha sacudido el mundo digital, deslumbrando a los inversionistas y hundiendo las acciones de algunas empresas tecnológicas, tras saltar a la cima de descargas de aplicaciones en Apple Store.
Fue lanzada el 20 de enero y rápidamente cautivó a los adeptos de la informática antes de llamar la atención de toda la industria tecnológica y del mundo.
El presidente de Estados Unidos, Donald Trump, calificó el fenómeno como una «llamada de alarma» para las empresas de ese país que deberán concentrarse en «competir para ganar».
Lo que hace a DeepSeek tan especial es la afirmación de sus creadores de que fue producida a una fracción del costo de otros modelos en la vanguardia de la industria como el ChatGPT de OpenAI, porque utiliza menos chips de tecnología avanzada.
DeepSeek, el último de una serie de modelos desarrollados con pocos chips y bajo coste, desafía el dominio de gigantes como OpenAI, Google y Meta.
El gran modelo lingüístico (LLM) del laboratorio chino de inteligencia artificial DeepSeek ha sorprendido a Silicon Valley al convertirse en uno de los mayores competidores de ChatGPT, de la empresa estadounidense OpenAI. Su irrupción ha sacudido a los mercados estadounidenses.
Los últimos modelos de DeepSeek, lanzados este mes, son extremadamente rápidos y baratos. El DeepSeek-R1, el último de los modelos desarrollados con menos chips, desafía el dominio de gigantes como OpenAI, Google y Meta.
He aquí DeepSeek en ocho preguntas:
1. ¿De dónde viene DeepSeek?
La empresa, con sede en Hangzhou (China), fue fundada en julio de 2023 por Liang Wenfeng, ingeniero informático y electrónico licenciado por la Universidad de Zhejiang. Formaba parte del programa de incubación de High-Flyer, un fondo que Liang fundó en 2015. Liang, como otros nombres destacados del sector, aspira a alcanzar el nivel de «inteligencia general artificial» que pueda alcanzar o superar a los humanos en diversas tareas.
DeepSeek, el último de una serie de modelos desarrollados con pocos chips y bajo coste, desafía el dominio de gigantes como OpenAI, Google y Meta.
El gran modelo lingüístico (LLM) del laboratorio chino de inteligencia artificial DeepSeek ha sorprendido a Silicon Valley al convertirse en uno de los mayores competidores de ChatGPT, de la empresa estadounidense OpenAI. Su irrupción ha sacudido a los mercados estadounidenses.
Los últimos modelos de DeepSeek, lanzados este mes, son extremadamente rápidos y baratos. El DeepSeek-R1, el último de los modelos desarrollados con menos chips, desafía el dominio de gigantes como OpenAI, Google y Meta.
He aquí DeepSeek en ocho preguntas:
1. ¿De dónde viene DeepSeek?
La empresa, con sede en Hangzhou (China), fue fundada en julio de 2023 por Liang Wenfeng, ingeniero informático y electrónico licenciado por la Universidad de Zhejiang. Formaba parte del programa de incubación de High-Flyer, un fondo que Liang fundó en 2015. Liang, como otros nombres destacados del sector, aspira a alcanzar el nivel de «inteligencia general artificial» que pueda alcanzar o superar a los humanos en diversas tareas.
Al operar de forma independiente, el modelo de financiación de DeepSeek le permite llevar a cabo ambiciosos proyectos de IA sin la presión de inversores externos y priorizar la investigación y el desarrollo a largo plazo. El equipo de DeepSeek está formado por jóvenes licenciados con talento de las mejores universidades chinas y fomenta la cultura de la innovación. El proceso de contratación de la empresa da prioridad a las aptitudes técnicas sobre la experiencia laboral. En definitiva, se considera que tiene una nueva perspectiva en el proceso de desarrollo de modelos de inteligencia artificial.
La trayectoria de DeepSeek comenzó en noviembre de 2023 con el lanzamiento de DeepSeek Coder, un modelo de código abierto diseñado para tareas de codificación. Le siguió DeepSeek LLM, cuyo objetivo era competir con otros grandes modelos lingüísticos. DeepSeek-V2, lanzado en mayo de 2024, ganó adeptos gracias a su gran rendimiento y bajo coste. También obligó a otros grandes gigantes tecnológicos chinos como ByteDance, Tencent, Baidu y Alibaba a bajar los precios de sus modelos de IA.
2. ¿Cuál es la capacidad de los modelos DeepSeek?
DeepSeek-V2 fue sustituido posteriormente por DeepSeek-Coder-V2, un modelo más avanzado con 236.000 millones de parámetros. Diseñado para peticiones de codificación complejas, el modelo tiene una ventana de contexto elevada de hasta 128.000 tokens. Una ventana de contexto de 128.000 tokens es la longitud máxima de texto de entrada que el modelo puede procesar simultáneamente.
Una ventana de contexto más amplia permite al modelo comprender, resumir o analizar textos más largos. Esto supone una gran ventaja, por ejemplo, cuando se trabaja con documentos largos, libros o diálogos complejos. Un token es una unidad de un texto. A menudo, esta unidad puede ser una palabra, una partícula (como «artificial» e «inteligencia») o incluso un carácter. Por ejemplo: «¡La inteligencia artificial es genial!» puede constar de cuatro tokens: Artificial», «inteligencia», «genial», «!».
Los últimos modelos de la empresa, DeepSeek-V3 y DeepSeek-R1, han consolidado aún más su posición. DeepSeek-V3, un modelo de 671.000 parámetros, requiere muchos menos recursos que sus homólogos, al tiempo que obtiene unos resultados impresionantes en diversas pruebas comparativas con otras marcas. El DeepSeek-R1, lanzado en enero de 2025, se centra en tareas complejas como el razonamiento, la codificación y las matemáticas. Con sus capacidades en este ámbito, desafía al o1, uno de los últimos modelos de ChatGPT.
Aunque DeepSeek ha logrado un éxito significativo en poco tiempo, ‘Forbes’ escribió que la empresa se centra principalmente en la investigación y no tiene planes detallados de comercialización en un futuro próximo.
3. ¿Es gratuito para el usuario?
Una de las principales razones por las que DeepSeek ha logrado atraer la atención es que es gratuito para los usuarios finales. De hecho, se trata del primer sistema de inteligencia artificial avanzada de este tipo a disposición de los usuarios de forma gratuita. Otros sistemas potentes como OpenAI o1 y Claude Sonnet requieren una suscripción de pago. Incluso algunas suscripciones imponen cuotas a los usuarios.
Google Gemini también está disponible de forma gratuita, pero las versiones gratuitas se limitan a los modelos más antiguos. DeepSeek no tiene limitaciones por ahora.
4. ¿Cómo utilizarlo?
Los usuarios pueden acceder a la interfaz de chat de DeepSeek desarrollada para el usuario final en chat.deepseek. Basta con introducir comandos en la pantalla de chat y pulsar el botón ‘search’ para buscar en internet.
Existe la opción ‘deep think’ para obtener información más detallada sobre cualquier tema. Aunque esta opción proporciona respuestas más detalladas a las peticiones de los usuarios, también puede buscar más sitios en el buscador. Sin embargo, a diferencia de ChatGPT, que sólo busca basándose en determinadas fuentes, esta función también puede revelar información falsa en algunos sitios pequeños. Por lo tanto, los usuarios necesitan confirmar la información que obtienen en este chat bot.
Los usuarios que han utilizado esta IA han comentado sus limitaciones a la hora de tratar ciertos temas políticos e históricos en China.
5. ¿Es seguro?
Otra pregunta importante sobre el uso de DeepSeek es si es seguro. DeepSeek, al igual que otros servicios, requiere datos del usuario, que probablemente se almacenan en servidores en China.
Como con cualquier LLM, es importante que los usuarios no den datos sensibles al chatbot. Como DeepSeek también es de código abierto, investigadores independientes pueden examinar el código del modelo e intentar determinar si es seguro. Se espera que en los próximos días se publique información más detallada sobre los problemas de seguridad.
6. ¿Qué significa código abierto?
Los modelos, incluido DeepSeek-R1, se han publicado en su mayor parte como código abierto. Esto significa que cualquiera puede acceder al código de la herramienta y utilizarlo para personalizar el LLM. Los datos de entrenamiento están protegidos.
OpenAI, por su parte, había liberado el modelo o1 cerrado y ya lo está vendiendo sólo a usuarios, incluso a usuarios, con paquetes de 20 a 200 dólares al mes.
7. ¿Cómo ha conseguido producir un modelo así a pesar de las restricciones de EE.UU.?
La empresa también ha establecido colaboraciones estratégicas para mejorar sus capacidades tecnológicas y su alcance en el mercado. Una de las colaboraciones notables fue con la empresa estadounidense de chips AMD. Según ‘Forbes’, DeepSeek utilizó las GPU (unidades de procesamiento gráfico) AMD Instinct y el software ROCM en fases clave del desarrollo del modelo, sobre todo para DeepSeek-V3.
MIT Technology Review informó de que Liang había adquirido importantes existencias de chips Nvidia A100, un tipo cuya exportación a China está actualmente prohibida, mucho antes de las sanciones impuestas por Estados Unidos a China. El medio de comunicación chino ’36Kr’ calcula que la empresa tiene más de 10.000 unidades en stock. Algunos dicen que esta cifra asciende a 50.000. Al darse cuenta de la importancia de estas existencias para el entrenamiento de la IA, Liang fundó DeepSeek y empezó a utilizarlas junto con chips de bajo consumo para mejorar sus modelos.
Pero lo importante aquí es que Liang ha encontrado la forma de construir modelos competentes con pocos recursos. Las restricciones estadounidenses a la exportación de chips obligaron a los desarrolladores de DeepSeek a crear algoritmos más inteligentes y eficientes energéticamente para compensar su falta de potencia de cálculo. Se cree que ChatGPT necesita 10.000 GPU de Nvidia para procesar los datos de entrenamiento. Los ingenieros de DeepSeek afirman haber conseguido resultados similares con sólo 2.000 GPU.
8. ¿Cuáles son las técnicas innovadoras de DeepSeek?
El éxito de DeepSeek puede atribuirse a varias innovaciones importantes.
Aprendizaje por refuerzo: a diferencia de los métodos tradicionales, que dependen en gran medida del ajuste fino supervisado, DeepSeek utiliza RL puro, según el tecnólogo Janakiram MSV. En el perfeccionamiento supervisado, el modelo suele entrenarse en un gran conjunto de datos antes del perfeccionamiento. El uso de la RL pura significa que un sistema de IA se entrena utilizando únicamente métodos de aprendizaje por refuerzo. Esto significa que el modelo aprende únicamente a través de mecanismos de recompensa y castigo, sin datos extraídos por humanos ni métodos de aprendizaje supervisado. Este enfoque es especialmente eficaz para mejorar las capacidades de razonamiento de DeepSeek-R1.
Arquitectura MoE: la arquitectura Mixture of Experts, o Mezcla de Expertos, es un sistema innovador de diferentes expertos en modelos de inteligencia artificial. Aquí, se seleccionan varios expertos como los más adecuados para la entrada del usuario y sólo ellos trabajan. De este modo, se aumenta el rendimiento de los grandes modelos y se reduce el coste de procesamiento. Se puede pensar en ello como un equipo de expertos, cada uno especializado en un área diferente. Ante una tarea, sólo se recurre a los expertos pertinentes, lo que garantiza un uso eficiente de los recursos y la experiencia.
Atención latente multicabezal: este método permite a un modelo aprender las relaciones entre las representaciones latentes y las entradas utilizando diferentes cabezales de atención. Sirve para procesar la información de forma más flexible, potente y detallada. Se puede considerar como múltiples «cabezas de atención» que pueden centrarse en distintas partes de los datos de entrada, lo que permite al modelo comprender la información de forma más exhaustiva.
Destilación: DeepSeek utiliza técnicas de destilación para transferir los conocimientos y capacidades de modelos más grandes a otros más pequeños y eficientes. Esto es similar a cuando un profesor transfiere conocimientos a un alumno. Permite al alumno realizar tareas de similar competencia pero con menos experiencia o recursos. El proceso de destilación de DeepSeek permite que los modelos más pequeños hereden las capacidades avanzadas de razonamiento y procesamiento del lenguaje de sus homólogos más grandes, haciéndolos más versátiles y accesibles.
En resumen, al utilizar arquitecturas eficientes como RL y MoE, DeepSeek reduce significativamente los recursos computacionales necesarios para el entrenamiento y puede completarlo con menores costes. Por ejemplo, DeepSeek-V3 se entrenó por una fracción del coste de los modelos de Meta.
Alexandr Wang, consejero delegado de ScaleAI, que proporciona datos de entrenamiento a los modelos de IA de grandes empresas como OpenAI y Google,describió el producto de DeepSeek como «un modelo revolucionario» en un discurso pronunciado el jueves en el Foro Económico Mundial (FEM) de Davos (Suiza).
Entretenimiento
Megacohete de Elon Musk explota en el Caribe

Lo que parecía un gran día para SpaceX, terminó siendo una verdadera tragedia. Su séptimo vuelo de prueba de Starhip acabó sobre el Caribe, lo que provocó el desvío incluso de algunos aviones, por consecuencia del fallo de la compañía de Elon Musk.
El objetivo en estos momentos de Starship y de Elon Musk, es que existan nuevos astronautas que pisen la luna. Este hito no se ha logrado repetir desde el año de 1972.
Explota la nave antes de salir al espacio
Starship había tomado como fecha de despegue, el 16 de enero como algo histórico. Sin embargo, el megacohete que partió desde Boca China (Texas, EEUU), comenzó a elevarse y llegó a tener 143 kilómetros de altura y una velocidad de 19.000 kilómetros por hora.
Una vez que comenzó a intentar penetrar para ingresar en el espacio, la nave explotó sobre el Caribe aproximadamente a las 23:37 hora peninsular española.
Debido a la explosión de esta nave no tripulada, hubo que informar a los espacios aéreos de todo el mundo, pus se generaron desvío de aviones en la zona.
La información fue dada a conocer por la Agencia Federal de Aviación de Estados Unidos. De hecho, el organismo estadounidense puede pedir una revisión exhaustiva a Space X por lo sucedido. De momento, Elon Musk y su compañía siguen sin cumplir con los objetivos que se tenían previstos a principio de año.
Lluvia de objetos voladores en el Caribe fueron noticia en la red social de Elon Musk
Aunque si bien Starship mostró que el propulsor Booster 14 logró impulsar al cohete y volver nuevamente a la base de salida de manera controlada, luego de generarse la separación del propulsor, se generó la falla.
Se dice que desde SpaceX hubo pérdida de comunicación con la nave, y en cuestión de minutos, se viralizó como había una lluvia espacial sobre las islas del Caribe.
De hecho, uno de los que hizo eco de la noticia, fue el propio Elon Musk a través de la red social X. En ella, publicó una imagen sobre las Islas Trucas y Caicos y agregó un comentario: “El éxito es incierto, pero el entretenimiento está garantizado”.
¿Y tú? ¿Crees que puedas tener éxito Elon Musk con su compañía de cara al largo plazo?
- Facebook: @diarioelliberal
- Instagram: @diarioelliberal
- Twitter: @webelliberal
- Tiktok: @diarioelliberal
Visita nuestro portal de noticias Diario El Liberal y agrégalo a tu lista de favoritos.
Tecnología
La Demolición del Flint Center: Un Adiós a la Historia de Apple
Reflexiones sobre el legado del auditorio donde Steve Jobs cambió el mundo de la tecnología.

El Flint Center, un lugar emblemático en la historia de Apple, ha sido testigo de momentos que definieron la informática moderna. Desde su inauguración hasta su cierre, este auditorio ha albergado eventos cruciales que marcaron el rumbo de una de las empresas más influyentes del mundo. Sin embargo, en 2024, las excavadoras han comenzado a trabajar en lo que alguna vez fue el escenario donde Steve Jobs presentó el primer Macintosh, dejando atrás solo escombros y nostalgia.
Ubicado a menos de un kilómetro de las primeras oficinas de Apple en Stevens Creek Boulevard, el Flint Center fue inaugurado para recibir hasta 2,400 asistentes. Su primera gran aparición fue en 1981 durante una reunión de accionistas. Pero fue el 24 de enero de 1984 cuando se convirtió en leyenda. En ese día histórico, Jobs, con su icónico traje y pajarita, presentó el Macintosh, un evento que no solo marcó el inicio de una nueva era en la informática personal, sino que también quedó grabado en la memoria colectiva gracias a su potente mensaje y estilo inconfundible.
El auditorio continuó siendo un lugar significativo para Apple durante décadas. En 2014, Tim Cook eligió este mismo escenario para presentar el iPhone 6 y el Apple Watch, significando la transición hacia una nueva era bajo su liderazgo. Sin embargo, a pesar de su rica historia, el Flint Center sufrió una lenta decadencia. Un estudio reveló que su uso era extremadamente bajo, con solo un 17% a un 24% del tiempo ocupado y apenas siete eventos al año superando los 2,000 asistentes.
Finalmente, la decisión de cerrar el edificio en 2019 llegó tras estimar que se requerirían 50 millones de dólares para renovarlo. La controversia no se hizo esperar; músicos y artistas lamentaron la pérdida de un espacio con una acústica excepcional.
Ahora, mientras las máquinas continúan su trabajo destructivo, nos enfrentamos a un ciclo nostálgico: el lugar donde Jobs nos mostró el futuro dará paso a nuevas instalaciones educativas. Aunque los recuerdos perduran entre quienes vivieron esos momentos históricos, también nos recuerda que incluso los íconos más duraderos no son eternos. La demolición del Flint Center simboliza no solo el fin de un edificio, sino también la culminación de cuatro décadas de innovación tecnológica.
Fuente | The Mercury News
-
Internacional1 semana ago
64 muertos en EEUU por accidente en Washington
-
Entretenimiento2 semanas ago
Erika Schwarzgruber ataca al cirujano plástico Froilan Páez
-
Venezuela1 semana ago
Recursos Aumentados: El Futuro de las Gobernaciones y Alcaldías en Venezuela
-
Sucesos2 semanas ago
GNB Incauta Más de 53 Kilos de Marihuana en Los Roques
-
Entretenimiento2 semanas ago
MrBeast detrás de comprar Tiktok en los Estados Unidos
-
Internacional1 semana ago
TPS que beneficio a venezolanos es revocado por Administración Trump
-
Internacional2 semanas ago
Trump Prohíbe Banderas LGBT+ y BLM
-
Deportes2 semanas ago
Semifinal número 50 de Grand Slam para Novak Djokovic