Para instalar esta aplicación en su dispositivo iOS, toque en Safari y luego seleccione Añadir a pantalla de inicio.
Estamos en vivo las 24 horas del dia
La titular de la empresa estatal Anahí Rodríguez adelantó que "en los próximos días" se pondrá en marcha el nuevo sistema para cubrir cargos. Se elegirán por perfil y en función de las necesidades de la EPE.
ProvincialesLa titular de la empresa estatal Anahí Rodríguez adelantó que "en los próximos días" se pondrá en marcha el nuevo sistema para cubrir cargos. Se elegirán por perfil y en función de las necesidades de la EPE.
La titular de la empresa estatal Anahí Rodríguez adelantó que "en los próximos días" se pondrá en marcha el nuevo sistema para cubrir cargos. Se elegirán por perfil y en función de las necesidades de la EPE.
En los próximos días, la Empresa Provincial de la Energía (EPE) pondrá en marcha el nuevo sistema de concursos para cubrir cargos vacantes. Se trata de un quiebre de paradigma con los denominados "derecho hereditarios" que tenían familiares de los empleados que cesaban en sus funciones. En su reemplazo, la compañía buscará convocar a una inscripción por perfil de vacante, en la que se priorizará la idoneidad y antecedentes de los aspirantes a la hora de seleccionar un candidato. Ayer comenzó el ingreso y egreso laboral por huella digital y datos biométricos del personal, al tiempo que la empresa no acepta más el pago de la facturas de sus clientes en sus oficinas comerciales.
Como ya se informó desde noviembre pasado, la EPE completará un camino trazado en la modificación para la elección de vacantes. Quien dio el puntapié inicial fue el ministro de Desarrollo Productivo, Gustavo Puccini, quien instruyó a las autoridades de la empresa estatal para que se modifique el status quo. Se trata de un esquema basado en el Convenio Colectivo de Trabajo (CCT) de 1997 en el que existía una "bolsa de trabajo". En ella, se enviaban los listados para cubrir vacantes y ante un accidente, fallecimiento o cese en funciones, cada operario dentro de la firma tenía la opción de ser reemplazado por su esposa o hijos, es decir, familiares directos.
Concurso para cubrir vacantes
El anterior sistema fue cambiado por una convocatoria abierta a cubrir vacantes, con listado de interesados, examen escrito, entrevista y antecedentes laborales, y básicamente con tres perfiles: profesional, tareas manuales y administrativos. Los argumentos de los funcionarios apuntan a los aspectos infraconstitucionales del anterior convenio y la vulneración de principios constitucionales. "Se terminaron los privilegios, no hay vuelta atrás", afirman. La intención de introducir esta modificación ya había provocado la reacción del Sindicato de Luz y Fuerza. "No hay prerrogativa de sangre, sino una reglamentación donde cada afiliado tiene derecho a incorporar al menos una persona, es decir, dejar alguien que quiera. Es su derecho", había señalado el titular del gremio, Alberto Botto.
Ahora, llegó el tiempo de poner en marcha el nuevo mecanismo. "En los próximos días saldremos con un concurso en Santa Fe, ya lo estamos terminando de armar, e ingresamos a la etapa de ultimar detalles. Vamos a buscar personal en función de criterios técnicos. La EPE es un servicio público esencial y requiere de un tecnicismo en sus trabajadores acorde al servicio que prestamos. Toda esta situación la estamos trabajando con el Ministerio de Desarrollo Productivo y la Secretaría de Tecnología para en breve hacerla pública", adelantó la titular de la EPE, Anahí Rodríguez.
La máxima autoridad de la empresa también subrayó que la prioridad de ahora en más es "el perfil de las personas; perfil que lo tiene que establecer la empresa y éste justamente es el sentido que entendemos se debe aplicar. Tenemos total convicción que los puestos los determina la EPE, y la búsqueda será por las características de los aspirantes que se necesiten para la prestación de un servicio tan importante como el que brindamos a la comunidad".
Huella y registro biométrico
En línea con este adelanto, la compañía puso en marcha ayer un nuevo registro de ingreso y egreso de los casi 4 mil trabajadores que la componen a lo largo de toda la provincia. "Con esta medida, la EPE busca mejorar la productividad, garantizar un control más transparente de los horarios del personal y evitar el despilfarro de horas extras”, agregó Rodríguez.
En esta primera etapa, comienza a funcionar en Rosario y Santa Fe, las dos grandes ciudades que concentran el grueso de empleados. En simultáneo se continúa con la instalación de los dispositivos de acceso en toda la provincia, que no sólo facilitará la gestión interna, sino que también permitirá la generación de informes detallados sobre horarios y asistencia del personal. La apertura de licitación para este sistema se realizó en enero, con un presupuesto oficial de más de 2.000 millones de pesos, asegurando una tecnología confiable y moderna para la operatividad de la empresa.
"Es un cambio de paradigma, con más de 250 equipos en toda la provincia. Estas medidas de control dentro del Estado, siempre generan algún tipo de incomodidad, pero nadie puede discutir sistemas que evitan errores con tanta planilla y papel y lo hicimos en tiempo récord en Rosario y en Santa Fe", apuntó Rodríguez. Y aclaró: "La mayoría de los trabajadores cumple con sus tareas y tiene mucho compromiso, pero también hay que evitar situaciones de abuso cuando no hay controles. Esto genera equidad interna".
Pago de facturas digitales
También desde ayer, la EPE dejó de cobrar facturas a sus clientes de manera presencial en las oficinas comerciales, avanzando en el proceso de digitalización. De esta forma, los usuarios podrán abonar sus facturas mediante diversas plataformas digitales y servicios de pago como Rapipago, Pago Fácil, Cobro Express y Mercado Pago, además del débito automático y el pago mediante CBU.
"Estamos dejando atrás un modelo obsoleto con uso indiscriminado de papel y ofrecemos modernizar los sistemas de pago, desde cualquier lugar y horario. Estamos trabajando para que en los próximos meses podamos despapelizar la factura y dejar a un lado ese soporte", señaló Rodríguez.
Licitaron transformadores
En el marco del plan de obras la EPE licitó la semana pasada la compra de 339 transformadores de distribución de 33 y 13,2 kilovatios; lo que demandará una inversión de 10.000 millones de pesos. Al llamado a licitación se presentaron ocho ofertas de empresas líderes en el rubro, lo que garantiza "un proceso competitivo y transparente", aseguran desde la compañía. Los plazos de entrega de los transformadores son de entre 90 y 180 días.
Por otro lado, la EPE invirtió más de 527 mil millones de pesos en infraestructura para mejorar la red de servicio eléctrico. Se trata de intervenciones claves en 132 kilovatios en las estaciones transformadoras Rosario Sur, Sarmiento, Cañada de Gómez, Villa Constitución Residencial y Sorrento, donde en algunos casos, el equipamiento alcanzaba hasta 40 años de antigüedad.
Las tareas comprendieron, entre otras, el recambio de interruptores, transformadores de corriente, descargadores y la incorporación de equipamiento con nuevas tecnologías.
Fuente: Uno Santa Fe
¿Formatear, agregar RAM o sacar el antivirus?; qué cosas mejoran el rendimiento real de la computadora y cuáles no
Tecno¿Formatear, agregar RAM o sacar el antivirus?; qué cosas mejoran el rendimiento real de la computadora y cuáles no
¿Formatear, agregar RAM o sacar el antivirus?; qué cosas mejoran el rendimiento real de la computadora y cuáles no
No solo las personas enfrentan días en los que el desempeño decae: las computadoras también pueden presentar momentos de lentitud o fallas que afectan la productividad. Sin embargo, no siempre las causas de estos problemas son las que se suelen asumir.
Para despejar dudas comunes, se recopilaron ocho afirmaciones frecuentes sobre el rendimiento de los equipos y se determinó cuáles son ciertas y cuáles no, con base en opiniones de expertos y análisis técnicos.
¿Formatear cada seis meses es necesario?
Esto es falso. Una de las creencias más difundidas es que formatear el computador periódicamente garantiza que funcione más rápido. Sin embargo, esto no es necesario si el equipo recibe un mantenimiento adecuado.
Los sistemas operativos actuales están preparados para conservar un buen rendimiento durante largos periodos, siempre que se realicen limpiezas, actualizaciones y ajustes periódicos. Además, contar con el respaldo de marcas que ofrecen soporte técnico especializado puede extender la vida útil del equipo.
¿El sobrecalentamiento afecta el desempeño?
Es verdadero. Cuando el procesador alcanza temperaturas elevadas, automáticamente disminuye su velocidad para evitar daños, un proceso conocido como thermal throttling. Esto tiene un impacto directo en el rendimiento general del equipo.
¿Más memoria RAM siempre soluciona la lentitud?
Es verdadero. Ampliar la memoria RAM puede mejorar el rendimiento, especialmente si la causa de la lentitud es la falta de memoria.
No obstante, si el problema radica en un procesador antiguo o un disco duro mecánico, la solución no será tan efectiva. Las computadoras modernas combinan procesadores eficientes, RAM optimizada y unidades de estado sólido (SSD) para ofrecer un funcionamiento más ágil.
¿El computador se vuelve lento después de un año?
Es falso. Con mantenimiento adecuado y componentes de calidad, un equipo puede conservar un buen desempeño por varios años. Mientras esté actualizado y cuente con soporte técnico,la computadora puede seguir funcionando con fluidez mucho más allá del primer año.
¿Los optimizadores de terceros hacen milagros?
Es falso. Muchos usuarios confían en software de terceros o modos de rendimiento esperando mejoras notables, pero estos programas solo ofrecen beneficios marginales o temporales.
Para lograr un desempeño óptimo, lo fundamental es tener un equipo equilibrado en potencia, refrigeración, almacenamiento y calidad del software nativo. La clave está en elegir un equipo que se adapte a las necesidades del usuario y aprovechar herramientas propias del sistema.
¿Cerrar programas en el Administrador de tareas mejora la velocidad?
Es falso. Cerrar procesos desde el Administrador de tareas puede parecer una solución rápida, pero es riesgoso. Si se detienen procesos del sistema, se pueden afectar funciones críticas, causando inestabilidad o incluso daños al sistema operativo. Además, esta acción no siempre mejora la velocidad del equipo.
¿El disco lleno vuelve lenta a la computadora?
Es verdadero. Tanto los discos duros tradicionales como los SSD necesitan espacio libre para operar de forma eficiente. Cuando el almacenamiento supera el 95% de su capacidad, el rendimiento se ve afectado. Lo recomendable es liberar espacio o ampliar la capacidad con un disco duro externo para evitar ralentizaciones.
¿Es mejor eliminar el antivirus para evitar lentitud?
Es falso. Aunque algunos antivirus pueden consumir recursos, eliminarlos no es la solución. El malware puede afectar seriamente el rendimiento del equipo, dañar el sistema y exponer información personal.
En vez de desinstalar el antivirus, lo mejor es buscar una alternativa más liviana que se adapte a las necesidades del usuario sin comprometer la seguridad.
“Cuando la computadora experimenta lentitud, lo más efectivo es recurrir a herramientas nativas especializadas, que permiten realizar diagnósticos precisos y optimizar el rendimiento de manera segura. Estas herramientas, integradas en el sistema operativo o proporcionadas directamente por la marca, están diseñadas para identificar y solucionar problemas específicos sin comprometer la estabilidad del equipo. Es igualmente importante aprovechar el ecosistema de soporte y soluciones adicionales que la marca ofrece”, dice ASUS.
Fuente: La nación tecno
Gmail hizo automática una función que hasta ahora era manual: crea resúmenes automáticos para las cadenas de mail largas con Gemini
TecnoGmail hizo automática una función que hasta ahora era manual: crea resúmenes automáticos para las cadenas de mail largas con Gemini
Gmail hizo automática una función que hasta ahora era manual: crea resúmenes automáticos para las cadenas de mail largas con Gemini
Los usuarios de Gmail podrán disponer de resúmenes creados automáticamente con la inteligencia artificial (IA) de Gemini para los hilos de correos más largos, que aparecerán encima del primer email y sintetizarán la información de los mensajes para agilizar su lectura.
El servicio de correo electrónico de Google incorporó el año pasado la función para resumir correos electrónicos generada por Gemini, pero era necesario activarla manualmente. A partir de este jueves, Gmail comenzará a proporcionar resúmenes de forma automática.
Resúmenes automáticos
En concreto, esta función se activará cuando los correos sean muy largos, o el intercambio de mensajes sea muy extenso, y se actualizará cada vez que se sumen más mensajes a la conversación.
El resumen aparecerá encima del primer correo de la conversación y, de momento, esta función solo está disponible en inglés para dispositivos móviles y puede tardar hasta dos semanas en aparecer, según ha informado Google en una publicación en blog de Workspace.
En el caso de no querer que Gemini muestre los resúmenes, esta opción se podrá desactivar en el apartado Funciones inteligentes de Gmail, en la configuración de la aplicación.
Del mismo modo, esta función está disponible para los usuarios suscritos a las modalidades de Business Starter, Standard y Plus, así como para la versión Enterprise Starter, Standard y Plus, y para los que hayan adquirido los complementos Gemini Education o Gemini Education Premium. Los usuarios que hayan contratado Google One AI Premium también tendrán acceso.
El pequeño fue trasladado de urgencia y permanece en terapia intensiva del hospital Orlando Alassia, en estado crítico. Investiga la fiscalía de Homicidios.
ProvincialesEl pequeño fue trasladado de urgencia y permanece en terapia intensiva del hospital Orlando Alassia, en estado crítico. Investiga la fiscalía de Homicidios.
El pequeño fue trasladado de urgencia y permanece en terapia intensiva del hospital Orlando Alassia, en estado crítico. Investiga la fiscalía de Homicidios.
Un dramático episodio conmocionó al barrio Los Troncos este sábado por la tarde, cuando un bebé de 15 meses fue hallado por sus familiares dentro de un balde de 20 litros con agua y lavandina en el patio de su vivienda, ubicada en la zona de Camino Viejo a Esperanza y Larrea, en la ciudad de Santa Fe.
El menor fue rescatado por sus propios familiares, quienes de inmediato lo trasladaron de urgencia al Hospital Iturraspe. Allí, los médicos le practicaron maniobras de reanimación cardiopulmonar (RCP) y, tras estabilizarlo momentáneamente, lo derivaron al Hospital de Niños Orlando Alassia, donde fue internado en estado crítico en la unidad de terapia intensiva (UTI).
Asfixia por inmersión y estado crítico
Según informaron fuentes hospitalarias, el pequeño sufrió un cuadro de asfixia por inmersión, lo que obligó a una rápida intervención médica. La madre del niño, una adolescente de 17 años, relató a los profesionales de salud que encontró al menor sumergido en el recipiente con agua y lavandina. La situación generó momentos de desesperación dentro del hogar familiar, motivo por el cual decidieron su traslado inmediato al centro de salud más cercano.
El caso fue comunicado a la Jefatura de la Unidad Regional I de la Policía de Santa Fe, que informó al Ministerio Público de la Acusación (MPA). Por la gravedad del hecho, el fiscal en turno de Flagrancia, Omar De Pedro, derivó el caso a la fiscalía de Homicidios, que ya se encuentra trabajando en la recolección de pruebas.
Las autoridades ordenaron la identificación de testigos y el relevamiento de imágenes de cámaras de seguridad, tanto públicas como privadas, en las inmediaciones de la vivienda, para determinar con precisión las circunstancias del suceso.
El pronóstico del menor es reservado y permanece bajo estricta vigilancia médica en la terapia intensiva del Hospital Alassia.
Fuente: Uno Santa Fe
Los integrantes del Ministerio Público Fiscal dieron por concluida la etapa de investigación previa al juicio oral contra siete procesados, entre ellos el sanjuaninos Carlos Pérez
NacionalesLos integrantes del Ministerio Público Fiscal dieron por concluida la etapa de investigación previa al juicio oral contra siete procesados, entre ellos el sanjuaninos Carlos Pérez
Los integrantes del Ministerio Público Fiscal dieron por concluida la etapa de investigación previa al juicio oral contra siete procesados, entre ellos el sanjuaninos Carlos Pérez
A pocos días de cumplirse el primer aniversario de la desaparición de Loan Danilo Peña, los fiscales del caso pidieron la elevación a juicio contra los siete procesados, entre ellos el sanjuanino Carlos Pérez, y sostuvieron la teoría de que el menor fue sustraído y ocultado hasta la actualidad.
Ahora el fallo depende Mariano Enrique de Guzmán, titular de la Fiscalía Federal de Goya, quien deberá confirmar si los imputados serán juzgados por haber secuestrado al nene de correntino de 6 años.
María Alejandra Mángano y Marcelo Colombo, titulares de la Procuraduría de Trata y Explotación de Personas, dieron a conocer detalles importantes de la investigación, se refirieron al misterio sin resolver acerca de la causa.
"Podemos afirmar que, con posterioridad al almuerzo llevado a cabo en la casa de Catalina Peña el día 13 de junio de 2024, Antonio Benítez, Daniel Ramírez, Mónica Millapi y Laudelina Peña, aprovechando que José Peña y la abuela del niño se encontraban haciendo la sobremesa conversando con el matrimonio de Carlos Pérez y Victoria Caillava; apartaron de la esfera de custodia de su padre al menor, utilizando para lograr ese cometido la excusa de ir a buscar naranjas con los otros niños", detalla el expediente, según NA.
Pronto se cumplirá un año de la desaparición de Loan.
En este escenario, describen que en el naranjal "se produjo un suceso que desencadenó en la sustracción del menor, el cual luego fue alejado del lugar y ocultado situación ésta que perdura al día de la fecha sospechándose que para ello se utilizó el vehículo Ford Ranger del matrimonio Pérez-Caillava, en el cual se hallaron rastros odoríficos del menor".
Se detalla además que, dicho delito, contó con la participación del Comisario Walter Maciel, "quien valiéndose de su cargo montó un falso escenario de búsqueda, e impartió y ejecutó distintas medidas con la finalidad entorpecer e imposibilitar el hallazgo".
La reconstrucción destaca que los niños, Loan y sus primos, fueron hasta el naranjal y que la sustracción del pequeño habría sido entre las 13:52 y las 14:25.
En ese lapso se registraron dos llamadas que los fiscales catalogan como "sumamente sospechosas: a las 14:09 hs. Ramírez, encontrándose en el naranjal, llama al teléfono de su hermana Mabel Ramírez, y conversa durante más de ocho minutos. Después de las 14:25 hs. Antonio Benítez llama a Laudelina Peña y hablan por más de nueve minutos".
"Continuando con la cronología de las comunicaciones, el primer aviso a la policía local ocurrió recién a las 15.37 horas, a partir del contacto de Caillava al teléfono particular del policía Mariano Hernán Duarte", sumaron.
Respecto a Maciel, pasó a intervenir directamente en la búsqueda del niño tiempo después, donde dio directivas a sus subalternos, disponiendo medidas y llevando a cabo diligencias, ya sea por orden del fiscal a cargo o por propia iniciativa, "todo bajo la apariencia de procurar su hallazgo cuando en realidad tuvo el verdadero objetivo de desviar y entorpecer la investigación montando para ello un supuesto escenario de búsqueda mientras se materializaba el ocultamiento del menor".
El único rastro fehaciente de Loan hallado fue el botín izquierdo que llevaba puesto el día el del almuerzo, el cual se comprobó que fue plantado en un lodazal y cuyo hallazgo se atribuyen contradictoriamente Laudelina y Macarena Peña, y Maciel.
Las fotografías tomadas por los involucrados permiten apreciar "la manipulación del calzado entre las 15:42 hs. y las 18:36 hs, momentos en los que fue enterrado y en esas casi tres horas, fue desenterrado, fotografiado en distintos escenarios y colocado nuevamente para su levantamiento".
En los primeros días de búsqueda se analizaron más de 30 rastros, entre ellos huellas, y material que se analizó como vómito o heces, todo lo cual luego "arrojó resultado negativo".
Después de rastrillar más de 25 mil hectáreas, los investigadores destacan que Loan "no se perdió como afirmaron las personas por las que aquí pedimos su procesamiento y que tampoco lo abandonaron, si no que se montó una escena para hacer creer que así había sucedido".
En la cobertura total del área rastrillada, la cual fue demarcada y delimitada por imagen satelital, se utilizó personal infante, drones con cámaras térmicas, binomios K9 con la especialidad de búsqueda de rastros, de restos humanos RH, y de vivos, caballería, helicóptero, para motor.
El análisis integral del material probatorio reunido hasta el momento permite afirmar que Benítez, Laudelina, Ramírez, Millapi, Caillava, Pérez y Maciel "intervinieron de manera coordinada en la sustracción y posterior ocultamiento de Loan", quien todavía no fue hallado a casi un año.
Tras el cierre de la pesquisa, se solicitó la elevación a juicio oral contra los procesados y ahora solo resta saber cuándo se dará inicio a uno de los debates más esperados.
Fuente: Crónica
Comenzó el mes de junio y con él confirmaron que habrá dos feriados seguidos que darán como resultado una semana laboral de solo tres días, perfecto para organizar una escapada familiar, descansar de la rutina o simplemente hacer planes tranquilos.
NacionalesComenzó el mes de junio y con él confirmaron que habrá dos feriados seguidos que darán como resultado una semana laboral de solo tres días, perfecto para organizar una escapada familiar, descansar de la rutina o simplemente hacer planes tranquilos.
Comenzó el mes de junio y con él confirmaron que habrá dos feriados seguidos que darán como resultado una semana laboral de solo tres días, perfecto para organizar una escapada familiar, descansar de la rutina o simplemente hacer planes tranquilos.
Con junio ya en marcha, muchos se preguntan cuándo llegará un nuevo fin de semana largo para cortar con la rutina, hacer una escapada cerca o planear alguna salida. En ese sentido, en los últimos días se confirmó que a mediados de mes habrá dos feriados nacionales pegados, lo que dejará una semana laboral de solo tres días y despierta la ilusión de quienes ya están organizando su calendario.
Dejando de lado lo histórico, estas fechas se convirtieron en posibilidades para estabilizar las actividades y responsabilidades diarias con los momentos de ocio y descanso. En este sentido, en el quinto mes del año llega uno de los fines de semana extra largos más esperados, con dos días de celebración que darán la oportunidad de contar con unas mini vacaciones.
Junio trae una buena noticia para quienes andan esperando un respiro, se vienen dos feriados nacionales que van a cortar la rutina justo a mitad de mes. El primero cae el lunes 16, en homenaje al General Martín Miguel de Güemes. Aunque la fecha real es el 17, como este año cae martes, lo pasan al lunes para armar un fin de semana largo.
Esto se hace gracias a la ley ley 27.399 que permite trasladar algunos feriados para que no queden en el medio de la semana. La idea es que más gente pueda aprovecharlos y tomarse un descanso sin perder días de trabajo, por lo que si una fecha cae martes o miércoles, se adelanta al lunes anterior, y si cae jueves o viernes, se pasa al lunes siguiente.
Después, llega el 20 de junio, que este año cae viernes, una de las fechas más esperadas por los ciudadanos, jornada en la que se conmemora el Día de la Bandera y se recuerda a Manuel Belgrano. Como no se mueve de fecha, por no ser considerada modificable queda justo pegado al finde y arma otro descanso ideal para quienes ya están pensando en una escapada o en quedarse en casa sin hacer nada.
Calendario de feriados para el resto del 2025
Miércoles 9 de julio – Día de la Independencia
Viernes 15 de agosto – Feriado con fines turísticos
Domingo 17 de agosto – Recuerdo del General José de San Martín
Domingo 12 de octubre – Día del Respeto a la Diversidad Cultural
Viernes 21 de noviembre – Feriado puente turístico
Lunes 24 de noviembre – Día de la Soberanía Nacional (trasladado del 20)
Lunes 8 de diciembre – Inmaculada Concepción de María
Jueves 25 de diciembre – Navidad
Las autoridades locales han instado a la población y a los turistas a respetar las prohibiciones de acceso a ciertas áreas del volcán y a mantenerse a una distancia segura de los flujos de lava.
InternacionalesLas autoridades locales han instado a la población y a los turistas a respetar las prohibiciones de acceso a ciertas áreas del volcán y a mantenerse a una distancia segura de los flujos de lava.
Las autoridades locales han instado a la población y a los turistas a respetar las prohibiciones de acceso a ciertas áreas del volcán y a mantenerse a una distancia segura de los flujos de lava.
Este lunes 2 de junio de 2025, el volcán Etna, ubicado en la isla italiana de Sicilia, entró en erupción, sorprendiendo a cientos de turistas que se encontraban en sus cercanías. La erupción generó columnas de humo, flujos de lava y material piroclástico en la ladera sureste del volcán.
Según el Instituto Nacional de Geofísica y Vulcanología (INGV) de Italia, la actividad volcánica comenzó en la madrugada del lunes a una altura de 2.800 metros, presentando características estrombolianas, es decir, explosiva pero de energía moderada. Se observan flujos de lava, gases y temblores, reflejando un incremento significativo en la actividad sísmica.
La erupción provocó la emisión de una nube de ceniza que alcanzó los 6.400 metros de altura, lo que llevó al Centro de Aviso de Cenizas Volcánicas de Toulouse a emitir una alerta roja para la aviación. A pesar de la magnitud del evento, el aeropuerto de Catania ha mantenido sus operaciones con solo algunos retrasos menores.
Las autoridades locales han instado a la población y a los turistas a respetar las prohibiciones de acceso a ciertas áreas del volcán y a mantenerse a una distancia segura de los flujos de lava. En los últimos días, muchos turistas han resultado heridos por acercarse demasiado al volcán, obligando a intervenir a los servicios de emergencia.
La historia de un gigante
Su historia eruptiva documentada se remonta a más de 2.500 años, aunque su origen geológico se estima en unos 500.000 años. El Etna ha sido testigo de innumerables erupciones a lo largo de los siglos, con ciclos de actividad que varían entre erupciones efusivas (lentas y constantes) y explosivas (más violentas).
Fue mencionado por historiadores griegos y romanos, incluyendo a Tucídides y Virgilio, y ha influido en la mitología antigua. En la mitología griega, se creía que el dios Hefesto (Vulcano) forjaba sus armas en las profundidades del Etna.
A pesar del riesgo constante, el Etna ha sido habitado desde tiempos antiguos gracias a la fertilidad de sus suelos volcánicos, ideales para cultivos como la vid, los cítricos y el olivo. Las poblaciones de sus laderas conviven con el volcán, que ha destruido pueblos enteros en ocasiones, pero también ha ofrecido recursos naturales y turísticos.
Erupciones destacadas
1669: una de las erupciones más destructivas, con flujos de lava que alcanzaron Catania.
1991-1993: una larga erupción que puso en peligro varias localidades.
2001, 2002 y 2017: episodios recientes de gran magnitud.
2021 en adelante: el volcán ha mantenido una actividad intermitente con frecuentes explosiones, ceniza y lava.
Fuente: El Litoral
La compañía tecnológica celebró como cada año el evento en el que presenta sus principales desarrollos, con especial foco en diferentes aplicaciones de inteligencia artificial. Los detalles
TecnoLa compañía tecnológica celebró como cada año el evento en el que presenta sus principales desarrollos, con especial foco en diferentes aplicaciones de inteligencia artificial. Los detalles
La compañía tecnológica celebró como cada año el evento en el que presenta sus principales desarrollos, con especial foco en diferentes aplicaciones de inteligencia artificial. Los detalles
La compañía tecnológica celebró como cada año el evento en el que presenta sus principales desarrollos, con especial foco en diferentes aplicaciones de inteligencia artificial. Los detalles
También comentó que Google procesa actualmente 480 billones de tokens al mes, contra 9,7 billones de unidades de texto o información que pasaban por sus modelos en mayo de 2024. Esto se explica por el crecimiento de la aplicación de Gemini, que ya superó los 400 millones de usuarios.
Y el objetivo de la empresa es que el uso de la IA se siga incrementando. Por ello, esta semana la integrarán en su navegador Chrome para usuarios de pago en Estados Unidos, para que Gemini pueda analizar lo que está apareciendo en un sitio web y sugerir acciones, al estilo de Copilot de Microsoft.
AI Mode
El año pasado Google presentó su función AI Overview, que ofrece respuestas generadas mediante IA que incluyen tanto información como enlaces a sitios relacionados. En su conferencia de este martes, anunciaron que ampliarán el alcance de esta herramienta, que ya fue utilizada por 1.500 millones de usuarios y compite directamente con ChatGPT de OpenAI y otras aplicaciones similares de IA.
La evolución de AI Overview es AI Mode, que ofrecerá respuestas para consultas más complejas y largas que las que habitualmente se hacen en el buscador. Se trata, según explicaron desde la compañía, de una función para procesar consultas no estructuradas en las que el usuario busca un resultado sin la necesidad de llegar a un sitio en concreto. Las respuestas, que no se presentarán como un listado de enlaces sino en formato de texto multimedia, podrá incluir tanto texto como gráficos y otros elementos.
AI Mode, que de momento solo está disponible en Estados Unidos, también sirve como un asistente inteligente para hacer compras que considera las necesidades específicas de cada usuario.
Como parte de esta nueva función, también puede simular un probador virtual de ropa a partir de una foto de nuestro cuerpo entero, sobre la que luego aplicará diferentes prendas según la elección de cada usuario y contemplando aspectos como características físicas y tipos de tela, entre otros.
Asistentes mejorados
Siguiendo con las mejoras para Gemini, usuarios de Android y iOS pueden acceder desde hoy a la versión Live de la aplicación, que permite utilizar la cámara del teléfono para capturar imágenes que luego son interpretadas por el modelo para mantener una conversación natural con el usuario.
Esto forma parte del trabajo que Google está llevando adelante para lograr que Gemini comprenda la física del mundo y se convierta así en un asistente verdaderamente potente y universal, algo que el año pasado denominaron como Project Astra.
Tecnología
20 de Mayo de 2025
Gemini en Chrome, agentes más inteligentes y generación de video mejorada: los anuncios del Google I/O 2025
La compañía tecnológica celebró como cada año el evento en el que presenta sus principales desarrollos, con especial foco en diferentes aplicaciones de inteligencia artificial. Los detalles
Por Rosario3
Google celebró su Google I/O 2025.
Anterior
Siguiente
1 de 1 |
Google celebró su Google I/O 2025.
El Google I/O 2025, el evento anual en el que el gigante tecnológico presenta las últimas novedades de sus diferentes productos y proyectos en desarrollo, tuvo lugar este martes en el Googleplex de Mountain View, California, con el foco puesto –al igual que el año pasado– en la Inteligencia Artificial (IA).
Sundar Pichai, CEO de Google, fue el encargado de subir al escenario para la apertura de la conferencia, y apuntó especialmente a la integración de la IA tanto dentro de su compañía como en la industria en general.
El director ejecutivo de una de las tecnológicas más grandes del mundo afirmó que Gemini 2.5 Pro, su modelo multimodal, se mantiene con las mejores valoraciones en diferentes tests de IA generativa frente a los desarrollos de la competencia. Destacó que mejoraron las capacidades de razonamiento, comprensión multimodal y codificación de su modelo.
Sundar Pichai, CEO de Google, durante la keynote principal del I/O 2025.
También comentó que Google procesa actualmente 480 billones de tokens al mes, contra 9,7 billones de unidades de texto o información que pasaban por sus modelos en mayo de 2024. Esto se explica por el crecimiento de la aplicación de Gemini, que ya superó los 400 millones de usuarios.
Y el objetivo de la empresa es que el uso de la IA se siga incrementando. Por ello, esta semana la integrarán en su navegador Chrome para usuarios de pago en Estados Unidos, para que Gemini pueda analizar lo que está apareciendo en un sitio web y sugerir acciones, al estilo de Copilot de Microsoft.
AI Mode
El año pasado Google presentó su función AI Overview, que ofrece respuestas generadas mediante IA que incluyen tanto información como enlaces a sitios relacionados. En su conferencia de este martes, anunciaron que ampliarán el alcance de esta herramienta, que ya fue utilizada por 1.500 millones de usuarios y compite directamente con ChatGPT de OpenAI y otras aplicaciones similares de IA.
La evolución de AI Overview es AI Mode, que ofrecerá respuestas para consultas más complejas y largas que las que habitualmente se hacen en el buscador. Se trata, según explicaron desde la compañía, de una función para procesar consultas no estructuradas en las que el usuario busca un resultado sin la necesidad de llegar a un sitio en concreto. Las respuestas, que no se presentarán como un listado de enlaces sino en formato de texto multimedia, podrá incluir tanto texto como gráficos y otros elementos.
AI Mode, que de momento solo está disponible en Estados Unidos, también sirve como un asistente inteligente para hacer compras que considera las necesidades específicas de cada usuario.
Como parte de esta nueva función, también puede simular un probador virtual de ropa a partir de una foto de nuestro cuerpo entero, sobre la que luego aplicará diferentes prendas según la elección de cada usuario y contemplando aspectos como características físicas y tipos de tela, entre otros.
Asistentes mejorados
Siguiendo con las mejoras para Gemini, usuarios de Android y iOS pueden acceder desde hoy a la versión Live de la aplicación, que permite utilizar la cámara del teléfono para capturar imágenes que luego son interpretadas por el modelo para mantener una conversación natural con el usuario.
Esto forma parte del trabajo que Google está llevando adelante para lograr que Gemini comprenda la física del mundo y se convierta así en un asistente verdaderamente potente y universal, algo que el año pasado denominaron como Project Astra.
A modo de muestra de lo que sería un caso de uso ideal, la compañía reprodujo un video en el que una persona dialoga con Gemini para que lo ayude a arreglar una bicicleta pidiéndole que busque videos en YouTube y haga una compra de repuestos, entre otras indicaciones. Se trató de algo conceptual, pero que de momento sigue siendo una idea en desarrollo y para la cual Gemini Live sería un primer paso.
Tecnología
20 de Mayo de 2025
Gemini en Chrome, agentes más inteligentes y generación de video mejorada: los anuncios del Google I/O 2025
La compañía tecnológica celebró como cada año el evento en el que presenta sus principales desarrollos, con especial foco en diferentes aplicaciones de inteligencia artificial. Los detalles
Por Rosario3
Google celebró su Google I/O 2025.
Anterior
Siguiente
1 de 1 |
Google celebró su Google I/O 2025.
El Google I/O 2025, el evento anual en el que el gigante tecnológico presenta las últimas novedades de sus diferentes productos y proyectos en desarrollo, tuvo lugar este martes en el Googleplex de Mountain View, California, con el foco puesto –al igual que el año pasado– en la Inteligencia Artificial (IA).
Sundar Pichai, CEO de Google, fue el encargado de subir al escenario para la apertura de la conferencia, y apuntó especialmente a la integración de la IA tanto dentro de su compañía como en la industria en general.
El director ejecutivo de una de las tecnológicas más grandes del mundo afirmó que Gemini 2.5 Pro, su modelo multimodal, se mantiene con las mejores valoraciones en diferentes tests de IA generativa frente a los desarrollos de la competencia. Destacó que mejoraron las capacidades de razonamiento, comprensión multimodal y codificación de su modelo.
Sundar Pichai, CEO de Google, durante la keynote principal del I/O 2025.
También comentó que Google procesa actualmente 480 billones de tokens al mes, contra 9,7 billones de unidades de texto o información que pasaban por sus modelos en mayo de 2024. Esto se explica por el crecimiento de la aplicación de Gemini, que ya superó los 400 millones de usuarios.
Y el objetivo de la empresa es que el uso de la IA se siga incrementando. Por ello, esta semana la integrarán en su navegador Chrome para usuarios de pago en Estados Unidos, para que Gemini pueda analizar lo que está apareciendo en un sitio web y sugerir acciones, al estilo de Copilot de Microsoft.
AI Mode
El año pasado Google presentó su función AI Overview, que ofrece respuestas generadas mediante IA que incluyen tanto información como enlaces a sitios relacionados. En su conferencia de este martes, anunciaron que ampliarán el alcance de esta herramienta, que ya fue utilizada por 1.500 millones de usuarios y compite directamente con ChatGPT de OpenAI y otras aplicaciones similares de IA.
La evolución de AI Overview es AI Mode, que ofrecerá respuestas para consultas más complejas y largas que las que habitualmente se hacen en el buscador. Se trata, según explicaron desde la compañía, de una función para procesar consultas no estructuradas en las que el usuario busca un resultado sin la necesidad de llegar a un sitio en concreto. Las respuestas, que no se presentarán como un listado de enlaces sino en formato de texto multimedia, podrá incluir tanto texto como gráficos y otros elementos.
AI Mode, que de momento solo está disponible en Estados Unidos, también sirve como un asistente inteligente para hacer compras que considera las necesidades específicas de cada usuario.
Como parte de esta nueva función, también puede simular un probador virtual de ropa a partir de una foto de nuestro cuerpo entero, sobre la que luego aplicará diferentes prendas según la elección de cada usuario y contemplando aspectos como características físicas y tipos de tela, entre otros.
Asistentes mejorados
Siguiendo con las mejoras para Gemini, usuarios de Android y iOS pueden acceder desde hoy a la versión Live de la aplicación, que permite utilizar la cámara del teléfono para capturar imágenes que luego son interpretadas por el modelo para mantener una conversación natural con el usuario.
Esto forma parte del trabajo que Google está llevando adelante para lograr que Gemini comprenda la física del mundo y se convierta así en un asistente verdaderamente potente y universal, algo que el año pasado denominaron como Project Astra.
A modo de muestra de lo que sería un caso de uso ideal, la compañía reprodujo un video en el que una persona dialoga con Gemini para que lo ayude a arreglar una bicicleta pidiéndole que busque videos en YouTube y haga una compra de repuestos, entre otras indicaciones. Se trató de algo conceptual, pero que de momento sigue siendo una idea en desarrollo y para la cual Gemini Live sería un primer paso.
También se anunció Project Mariner, pensado para ayudar a los usuarios a entrenar agentes de IA que hacen tareas encomendadas fuera de la plataforma (como comprar cosas en otros sitios o intercambiar información), es decir, utilizando servicios de terceros.
Se le puede pedir, por ejemplo, que busque un departamento para alquilar en base a nuestras necesidades y presupuesto. Lo que hará el agente será navegar en diferentes plataformas para registrar las opciones que encajen con las indicaciones brindadas y mostrar ese resultado.
Doblaje, respuestas inteligentes y audio expresivo
Otro de los anuncios que el CEO de Google hizo durante el evento fue que Google Meet, su aplicación para videollamadas, recibirá una actualización con la que sumó la capacidad de generar traducciones en tiempo real. Pero esto no lo hace mostrando subtítulos, sino que replica la voz de la persona que está hablando para doblar lo que dice a otro idioma con un tono similar. En principio, el servicio estará disponible para traducciones de inglés a español y viceversa para los usuarios pagos del servicio.
Smart Replies, la herramienta de generación automática de respuestas inteligentes, suma respuestas personalizadas que tendrán en cuenta el tono del usuario, su manera de escribir y detalles como la forma de despedirse en una conversación. Hasta ahora, las respuestas inteligentes eran genéricas, por lo que la novedad es que pasarán a analizar modismos y, si el usuario lo autoriza, la información almacenada en su Gmail y Drive.
También se mostraron novedades para Gemini 2.5 Flash y Pro, que pueden generar audio mucho más expresivo mediante voces sintéticas capaces de replicar susurros y diferentes tonos de voz en 24 idiomas. También indicaron que estos nuevos modelos son un 22% más eficientes, ya que requieren de menos tokens para lograr resultados similares.
También se presentaron Gemini Difussion y Deep Think, una nueva versión prototipo de Gemini 2.5 Pro, que fue entrenado para “tomarse más tiempo” para analizar la mejor respuesta para una consulta. Se basa en la utilización de pensamiento paralelo, es decir, analiza diferentes soluciones para la petición del usuario y determina cuál es la más efectiva antes de generar su respuesta.
Imagen, video y música sintética
Google presentó, además, su modelo Imagen 4, un nuevo generador de imágenes que sería "10 veces más rápido", con mejor manejo de texto y mayor comprensión de los pedidos de los usuarios.
Tecnología
20 de Mayo de 2025
Gemini en Chrome, agentes más inteligentes y generación de video mejorada: los anuncios del Google I/O 2025
La compañía tecnológica celebró como cada año el evento en el que presenta sus principales desarrollos, con especial foco en diferentes aplicaciones de inteligencia artificial. Los detalles
Por Rosario3
Google celebró su Google I/O 2025.
Anterior
Siguiente
1 de 1 |
Google celebró su Google I/O 2025.
El Google I/O 2025, el evento anual en el que el gigante tecnológico presenta las últimas novedades de sus diferentes productos y proyectos en desarrollo, tuvo lugar este martes en el Googleplex de Mountain View, California, con el foco puesto –al igual que el año pasado– en la Inteligencia Artificial (IA).
Sundar Pichai, CEO de Google, fue el encargado de subir al escenario para la apertura de la conferencia, y apuntó especialmente a la integración de la IA tanto dentro de su compañía como en la industria en general.
El director ejecutivo de una de las tecnológicas más grandes del mundo afirmó que Gemini 2.5 Pro, su modelo multimodal, se mantiene con las mejores valoraciones en diferentes tests de IA generativa frente a los desarrollos de la competencia. Destacó que mejoraron las capacidades de razonamiento, comprensión multimodal y codificación de su modelo.
Sundar Pichai, CEO de Google, durante la keynote principal del I/O 2025.
También comentó que Google procesa actualmente 480 billones de tokens al mes, contra 9,7 billones de unidades de texto o información que pasaban por sus modelos en mayo de 2024. Esto se explica por el crecimiento de la aplicación de Gemini, que ya superó los 400 millones de usuarios.
Y el objetivo de la empresa es que el uso de la IA se siga incrementando. Por ello, esta semana la integrarán en su navegador Chrome para usuarios de pago en Estados Unidos, para que Gemini pueda analizar lo que está apareciendo en un sitio web y sugerir acciones, al estilo de Copilot de Microsoft.
AI Mode
El año pasado Google presentó su función AI Overview, que ofrece respuestas generadas mediante IA que incluyen tanto información como enlaces a sitios relacionados. En su conferencia de este martes, anunciaron que ampliarán el alcance de esta herramienta, que ya fue utilizada por 1.500 millones de usuarios y compite directamente con ChatGPT de OpenAI y otras aplicaciones similares de IA.
La evolución de AI Overview es AI Mode, que ofrecerá respuestas para consultas más complejas y largas que las que habitualmente se hacen en el buscador. Se trata, según explicaron desde la compañía, de una función para procesar consultas no estructuradas en las que el usuario busca un resultado sin la necesidad de llegar a un sitio en concreto. Las respuestas, que no se presentarán como un listado de enlaces sino en formato de texto multimedia, podrá incluir tanto texto como gráficos y otros elementos.
AI Mode, que de momento solo está disponible en Estados Unidos, también sirve como un asistente inteligente para hacer compras que considera las necesidades específicas de cada usuario.
Como parte de esta nueva función, también puede simular un probador virtual de ropa a partir de una foto de nuestro cuerpo entero, sobre la que luego aplicará diferentes prendas según la elección de cada usuario y contemplando aspectos como características físicas y tipos de tela, entre otros.
Asistentes mejorados
Siguiendo con las mejoras para Gemini, usuarios de Android y iOS pueden acceder desde hoy a la versión Live de la aplicación, que permite utilizar la cámara del teléfono para capturar imágenes que luego son interpretadas por el modelo para mantener una conversación natural con el usuario.
Esto forma parte del trabajo que Google está llevando adelante para lograr que Gemini comprenda la física del mundo y se convierta así en un asistente verdaderamente potente y universal, algo que el año pasado denominaron como Project Astra.
A modo de muestra de lo que sería un caso de uso ideal, la compañía reprodujo un video en el que una persona dialoga con Gemini para que lo ayude a arreglar una bicicleta pidiéndole que busque videos en YouTube y haga una compra de repuestos, entre otras indicaciones. Se trató de algo conceptual, pero que de momento sigue siendo una idea en desarrollo y para la cual Gemini Live sería un primer paso.
También se anunció Project Mariner, pensado para ayudar a los usuarios a entrenar agentes de IA que hacen tareas encomendadas fuera de la plataforma (como comprar cosas en otros sitios o intercambiar información), es decir, utilizando servicios de terceros.
Project Mariner’s capability to understand, navigate, search, and organize is helping us towards our goal of building AI that is truly helpful in our digital lives.
Ready to explore the future of agents? ↓https://t.co/ATFRast16K pic.twitter.com/ntEBJcdaso
— Google DeepMind (@GoogleDeepMind) May 20, 2025
Se le puede pedir, por ejemplo, que busque un departamento para alquilar en base a nuestras necesidades y presupuesto. Lo que hará el agente será navegar en diferentes plataformas para registrar las opciones que encajen con las indicaciones brindadas y mostrar ese resultado.
Doblaje, respuestas inteligentes y audio expresivo
Otro de los anuncios que el CEO de Google hizo durante el evento fue que Google Meet, su aplicación para videollamadas, recibirá una actualización con la que sumó la capacidad de generar traducciones en tiempo real. Pero esto no lo hace mostrando subtítulos, sino que replica la voz de la persona que está hablando para doblar lo que dice a otro idioma con un tono similar. En principio, el servicio estará disponible para traducciones de inglés a español y viceversa para los usuarios pagos del servicio.
Smart Replies, la herramienta de generación automática de respuestas inteligentes, suma respuestas personalizadas que tendrán en cuenta el tono del usuario, su manera de escribir y detalles como la forma de despedirse en una conversación. Hasta ahora, las respuestas inteligentes eran genéricas, por lo que la novedad es que pasarán a analizar modismos y, si el usuario lo autoriza, la información almacenada en su Gmail y Drive.
También se mostraron novedades para Gemini 2.5 Flash y Pro, que pueden generar audio mucho más expresivo mediante voces sintéticas capaces de replicar susurros y diferentes tonos de voz en 24 idiomas. También indicaron que estos nuevos modelos son un 22% más eficientes, ya que requieren de menos tokens para lograr resultados similares.
También se presentaron Gemini Difussion y Deep Think, una nueva versión prototipo de Gemini 2.5 Pro, que fue entrenado para “tomarse más tiempo” para analizar la mejor respuesta para una consulta. Se basa en la utilización de pensamiento paralelo, es decir, analiza diferentes soluciones para la petición del usuario y determina cuál es la más efectiva antes de generar su respuesta.
Imagen, video y música sintética
Google presentó, además, su modelo Imagen 4, un nuevo generador de imágenes que sería "10 veces más rápido", con mejor manejo de texto y mayor comprensión de los pedidos de los usuarios.
Otra de las mejoras se aplicó para el modelo Veo 3, que ahora será capaz de generar tanto video como el audio que lo acompaña, incluyendo efectos de sonido y diálogos.
Tecnología
20 de Mayo de 2025
Gemini en Chrome, agentes más inteligentes y generación de video mejorada: los anuncios del Google I/O 2025
La compañía tecnológica celebró como cada año el evento en el que presenta sus principales desarrollos, con especial foco en diferentes aplicaciones de inteligencia artificial. Los detalles
Por Rosario3
Google celebró su Google I/O 2025.
Anterior
Siguiente
1 de 1 |
Google celebró su Google I/O 2025.
El Google I/O 2025, el evento anual en el que el gigante tecnológico presenta las últimas novedades de sus diferentes productos y proyectos en desarrollo, tuvo lugar este martes en el Googleplex de Mountain View, California, con el foco puesto –al igual que el año pasado– en la Inteligencia Artificial (IA).
Sundar Pichai, CEO de Google, fue el encargado de subir al escenario para la apertura de la conferencia, y apuntó especialmente a la integración de la IA tanto dentro de su compañía como en la industria en general.
El director ejecutivo de una de las tecnológicas más grandes del mundo afirmó que Gemini 2.5 Pro, su modelo multimodal, se mantiene con las mejores valoraciones en diferentes tests de IA generativa frente a los desarrollos de la competencia. Destacó que mejoraron las capacidades de razonamiento, comprensión multimodal y codificación de su modelo.
Sundar Pichai, CEO de Google, durante la keynote principal del I/O 2025.
También comentó que Google procesa actualmente 480 billones de tokens al mes, contra 9,7 billones de unidades de texto o información que pasaban por sus modelos en mayo de 2024. Esto se explica por el crecimiento de la aplicación de Gemini, que ya superó los 400 millones de usuarios.
Y el objetivo de la empresa es que el uso de la IA se siga incrementando. Por ello, esta semana la integrarán en su navegador Chrome para usuarios de pago en Estados Unidos, para que Gemini pueda analizar lo que está apareciendo en un sitio web y sugerir acciones, al estilo de Copilot de Microsoft.
AI Mode
El año pasado Google presentó su función AI Overview, que ofrece respuestas generadas mediante IA que incluyen tanto información como enlaces a sitios relacionados. En su conferencia de este martes, anunciaron que ampliarán el alcance de esta herramienta, que ya fue utilizada por 1.500 millones de usuarios y compite directamente con ChatGPT de OpenAI y otras aplicaciones similares de IA.
La evolución de AI Overview es AI Mode, que ofrecerá respuestas para consultas más complejas y largas que las que habitualmente se hacen en el buscador. Se trata, según explicaron desde la compañía, de una función para procesar consultas no estructuradas en las que el usuario busca un resultado sin la necesidad de llegar a un sitio en concreto. Las respuestas, que no se presentarán como un listado de enlaces sino en formato de texto multimedia, podrá incluir tanto texto como gráficos y otros elementos.
AI Mode, que de momento solo está disponible en Estados Unidos, también sirve como un asistente inteligente para hacer compras que considera las necesidades específicas de cada usuario.
Como parte de esta nueva función, también puede simular un probador virtual de ropa a partir de una foto de nuestro cuerpo entero, sobre la que luego aplicará diferentes prendas según la elección de cada usuario y contemplando aspectos como características físicas y tipos de tela, entre otros.
Asistentes mejorados
Siguiendo con las mejoras para Gemini, usuarios de Android y iOS pueden acceder desde hoy a la versión Live de la aplicación, que permite utilizar la cámara del teléfono para capturar imágenes que luego son interpretadas por el modelo para mantener una conversación natural con el usuario.
Esto forma parte del trabajo que Google está llevando adelante para lograr que Gemini comprenda la física del mundo y se convierta así en un asistente verdaderamente potente y universal, algo que el año pasado denominaron como Project Astra.
A modo de muestra de lo que sería un caso de uso ideal, la compañía reprodujo un video en el que una persona dialoga con Gemini para que lo ayude a arreglar una bicicleta pidiéndole que busque videos en YouTube y haga una compra de repuestos, entre otras indicaciones. Se trató de algo conceptual, pero que de momento sigue siendo una idea en desarrollo y para la cual Gemini Live sería un primer paso.
También se anunció Project Mariner, pensado para ayudar a los usuarios a entrenar agentes de IA que hacen tareas encomendadas fuera de la plataforma (como comprar cosas en otros sitios o intercambiar información), es decir, utilizando servicios de terceros.
Project Mariner’s capability to understand, navigate, search, and organize is helping us towards our goal of building AI that is truly helpful in our digital lives.
Ready to explore the future of agents? ↓https://t.co/ATFRast16K pic.twitter.com/ntEBJcdaso
— Google DeepMind (@GoogleDeepMind) May 20, 2025
Se le puede pedir, por ejemplo, que busque un departamento para alquilar en base a nuestras necesidades y presupuesto. Lo que hará el agente será navegar en diferentes plataformas para registrar las opciones que encajen con las indicaciones brindadas y mostrar ese resultado.
Doblaje, respuestas inteligentes y audio expresivo
Otro de los anuncios que el CEO de Google hizo durante el evento fue que Google Meet, su aplicación para videollamadas, recibirá una actualización con la que sumó la capacidad de generar traducciones en tiempo real. Pero esto no lo hace mostrando subtítulos, sino que replica la voz de la persona que está hablando para doblar lo que dice a otro idioma con un tono similar. En principio, el servicio estará disponible para traducciones de inglés a español y viceversa para los usuarios pagos del servicio.
Smart Replies, la herramienta de generación automática de respuestas inteligentes, suma respuestas personalizadas que tendrán en cuenta el tono del usuario, su manera de escribir y detalles como la forma de despedirse en una conversación. Hasta ahora, las respuestas inteligentes eran genéricas, por lo que la novedad es que pasarán a analizar modismos y, si el usuario lo autoriza, la información almacenada en su Gmail y Drive.
También se mostraron novedades para Gemini 2.5 Flash y Pro, que pueden generar audio mucho más expresivo mediante voces sintéticas capaces de replicar susurros y diferentes tonos de voz en 24 idiomas. También indicaron que estos nuevos modelos son un 22% más eficientes, ya que requieren de menos tokens para lograr resultados similares.
También se presentaron Gemini Difussion y Deep Think, una nueva versión prototipo de Gemini 2.5 Pro, que fue entrenado para “tomarse más tiempo” para analizar la mejor respuesta para una consulta. Se basa en la utilización de pensamiento paralelo, es decir, analiza diferentes soluciones para la petición del usuario y determina cuál es la más efectiva antes de generar su respuesta.
Imagen, video y música sintética
Google presentó, además, su modelo Imagen 4, un nuevo generador de imágenes que sería "10 veces más rápido", con mejor manejo de texto y mayor comprensión de los pedidos de los usuarios.
Otra de las mejoras se aplicó para el modelo Veo 3, que ahora será capaz de generar tanto video como el audio que lo acompaña, incluyendo efectos de sonido y diálogos.
También mostraron Lyria 2, un nuevo motor experimental para la generación de música mediante IA.
Flow, por su parte, es su herramienta de edición de video mediante IA, que puede crear y modificar el video para que se ajuste en tiempo y forma a lo necesita cada creador de contenido.
Expansión de Gemini
En conjunto con todos estos anuncios, Google confirmó que Gemini estará disponible en relojes con WearOS, tableros de autos con Android Auto, y en anteojos de realidad aumentada con Android XR.
Incluso anunciaron que pondrán a la venta sus propias gafas de diseño en colaboración con Warby Parker y Gentle Monster, dos marcas reconocidas de anteojos tradicionales, en una iniciativa que imita a la de Ray-Ban con Meta.
Tecnología
20 de Mayo de 2025
Gemini en Chrome, agentes más inteligentes y generación de video mejorada: los anuncios del Google I/O 2025
La compañía tecnológica celebró como cada año el evento en el que presenta sus principales desarrollos, con especial foco en diferentes aplicaciones de inteligencia artificial. Los detalles
Por Rosario3
Google celebró su Google I/O 2025.
Anterior
Siguiente
1 de 1 |
Google celebró su Google I/O 2025.
El Google I/O 2025, el evento anual en el que el gigante tecnológico presenta las últimas novedades de sus diferentes productos y proyectos en desarrollo, tuvo lugar este martes en el Googleplex de Mountain View, California, con el foco puesto –al igual que el año pasado– en la Inteligencia Artificial (IA).
Sundar Pichai, CEO de Google, fue el encargado de subir al escenario para la apertura de la conferencia, y apuntó especialmente a la integración de la IA tanto dentro de su compañía como en la industria en general.
El director ejecutivo de una de las tecnológicas más grandes del mundo afirmó que Gemini 2.5 Pro, su modelo multimodal, se mantiene con las mejores valoraciones en diferentes tests de IA generativa frente a los desarrollos de la competencia. Destacó que mejoraron las capacidades de razonamiento, comprensión multimodal y codificación de su modelo.
Sundar Pichai, CEO de Google, durante la keynote principal del I/O 2025.
También comentó que Google procesa actualmente 480 billones de tokens al mes, contra 9,7 billones de unidades de texto o información que pasaban por sus modelos en mayo de 2024. Esto se explica por el crecimiento de la aplicación de Gemini, que ya superó los 400 millones de usuarios.
Y el objetivo de la empresa es que el uso de la IA se siga incrementando. Por ello, esta semana la integrarán en su navegador Chrome para usuarios de pago en Estados Unidos, para que Gemini pueda analizar lo que está apareciendo en un sitio web y sugerir acciones, al estilo de Copilot de Microsoft.
AI Mode
El año pasado Google presentó su función AI Overview, que ofrece respuestas generadas mediante IA que incluyen tanto información como enlaces a sitios relacionados. En su conferencia de este martes, anunciaron que ampliarán el alcance de esta herramienta, que ya fue utilizada por 1.500 millones de usuarios y compite directamente con ChatGPT de OpenAI y otras aplicaciones similares de IA.
La evolución de AI Overview es AI Mode, que ofrecerá respuestas para consultas más complejas y largas que las que habitualmente se hacen en el buscador. Se trata, según explicaron desde la compañía, de una función para procesar consultas no estructuradas en las que el usuario busca un resultado sin la necesidad de llegar a un sitio en concreto. Las respuestas, que no se presentarán como un listado de enlaces sino en formato de texto multimedia, podrá incluir tanto texto como gráficos y otros elementos.
AI Mode, que de momento solo está disponible en Estados Unidos, también sirve como un asistente inteligente para hacer compras que considera las necesidades específicas de cada usuario.
Como parte de esta nueva función, también puede simular un probador virtual de ropa a partir de una foto de nuestro cuerpo entero, sobre la que luego aplicará diferentes prendas según la elección de cada usuario y contemplando aspectos como características físicas y tipos de tela, entre otros.
Asistentes mejorados
Siguiendo con las mejoras para Gemini, usuarios de Android y iOS pueden acceder desde hoy a la versión Live de la aplicación, que permite utilizar la cámara del teléfono para capturar imágenes que luego son interpretadas por el modelo para mantener una conversación natural con el usuario.
Esto forma parte del trabajo que Google está llevando adelante para lograr que Gemini comprenda la física del mundo y se convierta así en un asistente verdaderamente potente y universal, algo que el año pasado denominaron como Project Astra.
A modo de muestra de lo que sería un caso de uso ideal, la compañía reprodujo un video en el que una persona dialoga con Gemini para que lo ayude a arreglar una bicicleta pidiéndole que busque videos en YouTube y haga una compra de repuestos, entre otras indicaciones. Se trató de algo conceptual, pero que de momento sigue siendo una idea en desarrollo y para la cual Gemini Live sería un primer paso.
También se anunció Project Mariner, pensado para ayudar a los usuarios a entrenar agentes de IA que hacen tareas encomendadas fuera de la plataforma (como comprar cosas en otros sitios o intercambiar información), es decir, utilizando servicios de terceros.
Project Mariner’s capability to understand, navigate, search, and organize is helping us towards our goal of building AI that is truly helpful in our digital lives.
Ready to explore the future of agents? ↓https://t.co/ATFRast16K pic.twitter.com/ntEBJcdaso
— Google DeepMind (@GoogleDeepMind) May 20, 2025
Se le puede pedir, por ejemplo, que busque un departamento para alquilar en base a nuestras necesidades y presupuesto. Lo que hará el agente será navegar en diferentes plataformas para registrar las opciones que encajen con las indicaciones brindadas y mostrar ese resultado.
Doblaje, respuestas inteligentes y audio expresivo
Otro de los anuncios que el CEO de Google hizo durante el evento fue que Google Meet, su aplicación para videollamadas, recibirá una actualización con la que sumó la capacidad de generar traducciones en tiempo real. Pero esto no lo hace mostrando subtítulos, sino que replica la voz de la persona que está hablando para doblar lo que dice a otro idioma con un tono similar. En principio, el servicio estará disponible para traducciones de inglés a español y viceversa para los usuarios pagos del servicio.
Smart Replies, la herramienta de generación automática de respuestas inteligentes, suma respuestas personalizadas que tendrán en cuenta el tono del usuario, su manera de escribir y detalles como la forma de despedirse en una conversación. Hasta ahora, las respuestas inteligentes eran genéricas, por lo que la novedad es que pasarán a analizar modismos y, si el usuario lo autoriza, la información almacenada en su Gmail y Drive.
También se mostraron novedades para Gemini 2.5 Flash y Pro, que pueden generar audio mucho más expresivo mediante voces sintéticas capaces de replicar susurros y diferentes tonos de voz en 24 idiomas. También indicaron que estos nuevos modelos son un 22% más eficientes, ya que requieren de menos tokens para lograr resultados similares.
También se presentaron Gemini Difussion y Deep Think, una nueva versión prototipo de Gemini 2.5 Pro, que fue entrenado para “tomarse más tiempo” para analizar la mejor respuesta para una consulta. Se basa en la utilización de pensamiento paralelo, es decir, analiza diferentes soluciones para la petición del usuario y determina cuál es la más efectiva antes de generar su respuesta.
Imagen, video y música sintética
Google presentó, además, su modelo Imagen 4, un nuevo generador de imágenes que sería "10 veces más rápido", con mejor manejo de texto y mayor comprensión de los pedidos de los usuarios.
Otra de las mejoras se aplicó para el modelo Veo 3, que ahora será capaz de generar tanto video como el audio que lo acompaña, incluyendo efectos de sonido y diálogos.
También mostraron Lyria 2, un nuevo motor experimental para la generación de música mediante IA.
Flow, por su parte, es su herramienta de edición de video mediante IA, que puede crear y modificar el video para que se ajuste en tiempo y forma a lo necesita cada creador de contenido.
Expansión de Gemini
En conjunto con todos estos anuncios, Google confirmó que Gemini estará disponible en relojes con WearOS, tableros de autos con Android Auto, y en anteojos de realidad aumentada con Android XR.
Incluso anunciaron que pondrán a la venta sus propias gafas de diseño en colaboración con Warby Parker y Gentle Monster, dos marcas reconocidas de anteojos tradicionales, en una iniciativa que imita a la de Ray-Ban con Meta.
Habrá, además, un nuevo plan de suscripción además de Google AI Pro, que cuesta 20 dólares al mes: Google AI Ultra tendrá un precio de USD 250 por mes y ofrecerá acceso total a las herramientas de IA, a YouTube Premium y 30 TB de almacenamiento en la nube. Se trata de una propuesta pensada para clientes corporativos o profesionales.
Aunque la herramienta de la aplicación de mensajería instantánea no puede eliminarse por completo, existe una forma de minimizar su presencia
TecnoAunque la herramienta de la aplicación de mensajería instantánea no puede eliminarse por completo, existe una forma de minimizar su presencia
Aunque la herramienta de la aplicación de mensajería instantánea no puede eliminarse por completo, existe una forma de minimizar su presencia
Hay quienes no quieren tener Meta IA en WhatsApp. Esto se debe principalmente a que genera preocupación en tanto a la privacidad de los datos, o el simple hecho de sentirse inseguro. Por ello, los usuarios pueden tener el deseo de desactivar esta herramienta, pero muchos se preguntan si o no conviene hacerlo.
Meta IA es un sistema de inteligencia artificial con la forma de un círculo azul al que se le puede hablar como a un contacto para realizar (siempre con la conciencia y el cuidado de que se trata de una tecnología experimental) tareas como responder consultas de información variada, generar imágenes a partir de entradas textuales, sugerir recomendaciones y acceder a información en tiempo real, entre otras.
Las razones para querer eliminar Meta IA van desde preocupaciones por la intrusión de la misma —negados por la empresa—, los posibles errores en sus respuestas o simplemente la elección de tener una versión más simple de la aplicación. Para muchas personas, se trata de una función que no utilizan ni desean tener a mano, y por lo tanto, consideran que es mejor no tenerla.
¿Por qué es conveniente desactivar Meta IA?
Muchas personas pueden tener sospechas de los efectos negativos que esta app tiene sobre los usuarios y sobre la sociedad. Aunque la principal sospecha es la pérdida de privacidad informática, WhatsApp asegura que sus chats tienen un cifrado extremo a extremo que le impide leer los mensajes y analizarlos.
De cualquier manera, existen otras razones por las cuales las personas deberían pensar dos veces a la hora de utilizar esta inteligencia artificial. A continuación, las cinco más relevantes:
Impacto ambiental: el consumo de energía de las IA es gigantesco. “La próxima limitación [de la inteligencia artificial] va a ser la electricidad”, afirmó Elon Musk. Para llevarlo a números reales, la generación de una imagen en un modelo de inteligencia artificial puede consumir tanto como media carga de un smartphone, y 1000 imágenes, el equivalente a la carga completa de 522 teléfonos.
Falta de precisión de los datos: Meta IA puede dar información falsa, incluso inventada. Tomar sus respuestas como verdades es un error grave que muchas veces las personas cometen. Esto es un problema, especialmente cuando se trata de consejos médicos, por ejemplo.
Genera distracciones: esta herramienta representa una puerta de entrada más a la distracción. Instagram, TikTok, Facebook, X y WhatsApp representan un amplio campo fértil para dispersarse, y Meta IA es una opción más que ayuda a evitar hacer las tareas que realmente importan en el día a día.
Falta de creatividad: muchos usuarios usan la IA como herramienta creativa, pero en verdad, como todo sistema tecnológico de este tipo, las respuestas que ofrece tienen un mismo estilo y tono. Los textos son similares entre sí y las imágenes, de una estética reconocible. La IA y otras herramientas (como las de diseño que ofrecen plantillas, por ejemplo) no están pensadas para nada más que responder dudas básicas.
Limitación a la novedad: al tener las respuestas (verídicas o no) al alcance de la mano, las personas podrían dejar de lado la curiosidad natural del ser humano. La inteligencia artificial está programada para simplificar análisis, conceptos y generar ahorros de tiempo. La minimización de esos elementos puede achicar la profundidad de los debates, y el impacto es aún más profundo en las personas que transitan un período educativo.
Cómo desactivar el botón de Meta IA en WhatsApp
A pesar de sus funcionalidades, muchos prefieren no tener este círculo azul a mano, por lo que buscan cómo desactivar la inteligencia artificial en WhatsApp. Ya sea por incomodidad o por otras razones, hay muchos que desean no tener acceso a Meta IA entre los chats de la app. Es por ello que buscan formas de minimizar su presencia en la aplicación de mensajería.
Aunque existen maneras de hacerlo, eliminar la IA de WhatsApp por completo no es posible, ya que Meta no brinda una forma de separar ambas tecnologías. Quienes hayan interactuado con ella y no quieran seguir viendo el chat, pueden minimizar la presencia de Meta IA con un simple paso a paso:
Abrir la conversación con Meta IA en WhatsApp.
Tocar el icono de los tres puntos verticales en la esquina superior derecha (o en el menú de chats, dependiendo del celular).
Seleccionar la opción “Eliminar conversación” o “Eliminar chat”
Confirma que se desea eliminar la conversación.
Luego de este paso a paso, el usuario dejará de recibir mensajes del sistema en WhatsApp a la vez que no verá a Meta IA como una conversación entre sus contactos. Y, si desea volver a hablar con la herramienta, solamente debe buscar su nombre en la lista de contactos o iniciar una nueva conversación clickeando el ícono sobre la barra de búsqueda.
Microsoft agrega una función para crear stickers con Paint y generar texto en el Bloc de notas mediante IA generativa
TecnoMicrosoft agrega una función para crear stickers con Paint y generar texto en el Bloc de notas mediante IA generativa
Microsoft agrega una función para crear stickers con Paint y generar texto en el Bloc de notas mediante IA generativa
Microsoft ha actualizado las herramientas de Paint, Recortes y Bloc de notas, integrando nuevas funciones impulsadas por inteligencia artificial (IA) para los miembros de Windows Insiders en los canales Canary y Dev en Windows 11, con lo que permite generar stickers personalizados con Paint, capturar contenido de forma precisa con la herramienta de recortes y asistencia de escritura con IA generativa en el Bloc de notas.
Stickers a partir de una descipción
La compañía ha actualizado la herramienta de Paint a la versión 11.2504.451.0, con tres mejoras ideadas para ofrecer una experiencia más creativa para los usuarios. En primer lugar, Microsoft ha añadido un generador de stickers, una nueva función impulsada por IA que permite crear stickers personalizados con sólo describir el sticker deseado.
Según ha explicado en un comunicado en su blog, para generar un nuevo sticker, los usuarios deberán seleccionar dicha opción en el menú de Copilot e introducir la descripción de texto. Tras ello, Paint generará un conjunto de stickers en base a la descripción y los usuarios podrán seleccionar el que más se ajuste a sus necesidades. Además, se podrán compartir a través de otras aplicaciones y quedarán almacenados en el apartado de stickers generados recientemente.
La selección de objetos es otra de las funciones que Microsoft ha integrado en Paint, una herramienta inteligente que también usa IA para ayudar al usuario a aislar y editar elementos de forma individual en una imagen. No obstante, ha detallado que estas dos herramientas sólo estarán disponibles en una computadora con Copilot+.
En tercer lugar, la compañía tecnológica ha diseñado un cuadro de diálogo que ofrece una visión general de las posibilidades de Paint para ayudar a los usuarios a descubrir y conocer las funciones más recientes añadidas en la aplicación, y puede servir como punto de partida tanto para usuarios nuevos como habituales.
Captura de pantalla inteligente
En lo referente a la herramienta de recortes, se ha actualizado a la versión 11.2504.38.0, incorporando la función de Captura de pantalla perfecta, que permite capturar contenido con precisión en la pantalla mediante IA, sin necesidad de recortarlo ni redimensionarlo después de capturarlo en una computadora con Copilot+.
Asimismo, también se podrá capturar información de forma más precisa en la pantalla con el selector de color. Esta función ha sido ideada para diseñadores, desarrolladores y “cualquiera que necesite igualar rápidamente un color en la pantalla como parte de un proyecto”, según ha indicado la compañía.
Un Bloc de notas que escribe lo que querés
En cuanto al Bloc de notas, la actualización a la versión 11.2504.46.0 trae la posibilidad de escribir contenido mediante IA generativa, ayudando al usuario a redactar texto rápidamente en base a las indicaciones del texto deseado, por lo que se facilitará empezar a escribir tanto “desde una página en blanco”, como ampliando contenido con la ayuda de IA.
Microsoft ha detallado igualmente que los usuarios pueden desactivar las funciones de IA en cualquier momento, y que los suscriptores de Microsoft 365 Personal, Familia, Enterprise y Copilot Pro podrán usar créditos de IA para la función de escritura en el Bloc de notas.
Fuente: La Nación Teno
Se llevan a cabo este domingo las elecciones bonaerenses para definir unos 1.500 cargos provinciales y municipales. Todos los candidatos.
Leer nota completa en el diarioLos principales candidatos libertarios informaron en qué escuela y a qué hora votarán este domingo en las elecciones legislativas bonaerenses. Enterate acá.
Leer nota completa en el diarioLa analista política publicó un tuit en el que el asocia al streamer libertario con el exdirigente peronista.
Leer nota completa en el diarioEl ministerio reconoció que la auditoría que justificaba la suspensión de ayuda nunca existió.
Leer nota completa en el diarioEl feriado por el Día del Respeto a la Diversidad Cultural fue toda una incógnita hasta que la gestión libertaria tomó una decisión. Enterate.
Leer nota completa en el diarioLa policía desalojó una propiedad tomada en Villa Crespo, cerca del Movistar Arena. Ya suma 410 operativos para recuperar inmuebles.
Leer nota completa en el diarioSe trata de tres grupos de documentos de la serie AAL. Muchos pertenecen a residentes nacionales en el exterior.
Leer nota completa en el diarioAl momento del deceso, Natalia Etcheverry declaró que su hija había muerto por causas naturales pero el padre pidió investigar el caso.
Leer nota completa en el diarioLa moneda digital comenzó a crecer durante los últimos años, convirtiéndose en una de las principales fuentes de inversión en la actualidad.
Leer nota completa en el diarioEl organismo estatal brindó toda la información sobre estos montos destinados a distintos beneficiarios durante el noveno mes del año.
Leer nota completa en el diarioEl banco estadounidense se enfoca en el impacto de los posibles resultados en el mayor distrito electoral del país.
Leer nota completa en el diarioEl ministro de Economía anunció en redes sociales que el Gobierno avanzará "con las reformas laboral y tributaria para seguir cambiando el país".
Leer nota completa en el diarioLa estrella pop anunció su compromiso con Travis Kelce y su publicación ya arrasa en redes, aunque todavía está lejos de la histórica imagen del capitán argentino con la Copa del Mundo.
Leer nota completa en el diarioEs una de las plataformas más usadas en nuestro país para acceder a música y contenidos, y a partir de esta semana también tendrá un canal para hacer sociales.
Leer nota completa en el diarioUn grupo de cuentas sorprendió en X con un cambio de estrategia: tras semanas de críticas a Riquelme y Tapia y elogios a Milito, comenzaron a militar la candidatura de Ricardo López Murphy como diputado nacional.
Leer nota completa en el diarioLa nostalgia y la durabilidad de los “teléfonos tontos” impulsan un mercado que vende dispositivos clásicos a valores sorprendentes, incluso en su empaque original y perfecto estado.
Leer nota completa en el diarioDescripcin: Todo el rock naciona e internacional
Locutor: Nani
Da: Viernes
Hora: 21:00:00 - 23:00:00
Descripcin: Magazine diario
Locutor: Fabián Chesa
Da: Lunes, Martes, Miércoles, Jueves, Viernes
Hora: 10:00:00 - 12:00:00