[](https://www.paloaltonetworks.com/?ts=markdown) * LA * [USA (ENGLISH)](https://www.paloaltonetworks.com) * [AUSTRALIA (ENGLISH)](https://www.paloaltonetworks.com.au) * [BRAZIL (PORTUGUÉS)](https://www.paloaltonetworks.com.br) * [CANADA (ENGLISH)](https://www.paloaltonetworks.ca) * [CHINA (简体中文)](https://www.paloaltonetworks.cn) * [FRANCE (FRANÇAIS)](https://www.paloaltonetworks.fr) * [GERMANY (DEUTSCH)](https://www.paloaltonetworks.de) * [INDIA (ENGLISH)](https://www.paloaltonetworks.in) * [ITALY (ITALIANO)](https://www.paloaltonetworks.it) * [JAPAN (日本語)](https://www.paloaltonetworks.jp) * [KOREA (한국어)](https://www.paloaltonetworks.co.kr) * LATIN AMERICA (ESPAÑOL) * [MEXICO (ESPAÑOL)](https://www.paloaltonetworks.com.mx) * [SINGAPORE (ENGLISH)](https://www.paloaltonetworks.sg) * [SPAIN (ESPAÑOL)](https://www.paloaltonetworks.es) * [TAIWAN (繁體中文)](https://www.paloaltonetworks.tw) * [UK (ENGLISH)](https://www.paloaltonetworks.co.uk) * ![magnifying glass search icon to open search field](https://www.paloaltonetworks.com/etc/clientlibs/clean/imgs/search-black.svg) * [Comenzar](https://www.paloaltonetworks.lat/get-started?ts=markdown) * [Contacte con nosotros](https://www.paloaltonetworks.lat/company/contact?ts=markdown) * [Recursos](https://www.paloaltonetworks.lat/resources?ts=markdown) * [Obtener asistencia](https://support.paloaltonetworks.com/support) * [¿Está en riesgo?](https://start.paloaltonetworks.com/contact-unit42.html) ![x close icon to close mobile navigation](https://www.paloaltonetworks.com/etc/clientlibs/clean/imgs/x-black.svg) [![Palo Alto Networks logo](https://www.paloaltonetworks.com/etc/clientlibs/clean/imgs/pan-logo-dark.svg)](https://www.paloaltonetworks.com/?ts=markdown) ![magnifying glass search icon to open search field](https://www.paloaltonetworks.com/etc/clientlibs/clean/imgs/search-black.svg) * [](https://www.paloaltonetworks.com/?ts=markdown) * Productos ![black arrow pointing left to go back to main navigation](https://www.paloaltonetworks.com/etc/clientlibs/clean/imgs/arrow-right-black.svg) Productos [Plataforma de seguridad de la red con tecnología de IA](https://www.paloaltonetworks.lat/network-security?ts=markdown) * [IA segura por diseño](https://www.paloaltonetworks.lat/precision-ai-security/secure-ai-by-design?ts=markdown) * [Prisma AIRS](https://www.paloaltonetworks.lat/prisma/prisma-ai-runtime-security?ts=markdown) * [Seguridad de AI Access](https://www.paloaltonetworks.lat/sase/ai-access-security?ts=markdown) * [SERVICIOS DE SEGURIDAD EN LA NUBE](https://www.paloaltonetworks.lat/network-security/security-subscriptions?ts=markdown) * [Prevención de amenazas avanzada](https://www.paloaltonetworks.lat/network-security/advanced-threat-prevention?ts=markdown) * [URL Filtering avanzado](https://www.paloaltonetworks.lat/network-security/advanced-url-filtering?ts=markdown) * [WildFire avanzado](https://www.paloaltonetworks.lat/network-security/advanced-wildfire?ts=markdown) * [Seguridad de DNS avanzada](https://www.paloaltonetworks.lat/network-security/advanced-dns-security?ts=markdown) * [Prevención de pérdida de datos empresariales](https://www.paloaltonetworks.lat/sase/enterprise-data-loss-prevention?ts=markdown) * [Seguridad de IoT empresarial](https://www.paloaltonetworks.lat/network-security/enterprise-device-security?ts=markdown) * [Seguridad de IoT para dispositivos médicos](https://www.paloaltonetworks.lat/network-security/medical-iot-security?ts=markdown) * [Seguridad de OT industrial](https://www.paloaltonetworks.lat/network-security/industrial-ot-security?ts=markdown) * [Seguridad de SaaS](https://www.paloaltonetworks.lat/sase/saas-security?ts=markdown) * [Firewalls de nueva generación](https://www.paloaltonetworks.lat/network-security/next-generation-firewall?ts=markdown) * [Firewalls de hardware](https://www.paloaltonetworks.lat/network-security/hardware-firewall-innovations?ts=markdown) * [Firewalls de software](https://www.paloaltonetworks.lat/network-security/software-firewalls?ts=markdown) * [Gestor de la nube Strata](https://www.paloaltonetworks.lat/network-security/strata-cloud-manager?ts=markdown) * [SD-WAN para NGFW](https://www.paloaltonetworks.lat/network-security/sd-wan-subscription?ts=markdown) * [PAN-OS](https://www.paloaltonetworks.lat/network-security/pan-os?ts=markdown) * [Panorama](https://www.paloaltonetworks.lat/network-security/panorama?ts=markdown) * [DISPOSITIVO PERIFÉRICO DE SERVICIO DE ACCESO SEGURO](https://www.paloaltonetworks.lat/sase?ts=markdown) * [Prisma SASE](https://www.paloaltonetworks.lat/sase?ts=markdown) * [Aceleración de aplicaciones](https://www.paloaltonetworks.lat/sase/app-acceleration?ts=markdown) * [Gestión autónoma de la experiencia digital](https://www.paloaltonetworks.lat/sase/adem?ts=markdown) * [Enterprise DLP](https://www.paloaltonetworks.lat/sase/enterprise-data-loss-prevention?ts=markdown) * [Prisma Access](https://www.paloaltonetworks.lat/sase/access?ts=markdown) * [Prisma Browser](https://www.paloaltonetworks.lat/sase/prisma-browser?ts=markdown) * [Prisma SD-WAN](https://www.paloaltonetworks.lat/sase/sd-wan?ts=markdown) * [Aislamiento del explorador remoto](https://www.paloaltonetworks.lat/sase/remote-browser-isolation?ts=markdown) * [Seguridad SaaS](https://www.paloaltonetworks.lat/sase/saas-security?ts=markdown) [Security Operating Platform dirigida por IA](https://www.paloaltonetworks.lat/cortex?ts=markdown) * [Seguridad en la nube](https://www.paloaltonetworks.lat/cortex/cloud?ts=markdown) * [Cortex Cloud](https://www.paloaltonetworks.lat/cortex/cloud?ts=markdown) * [Seguridad de aplicaciones](https://www.paloaltonetworks.lat/cortex/cloud/application-security?ts=markdown) * [Postura de seguridad en la nube](https://www.paloaltonetworks.lat/cortex/cloud/cloud-posture-security?ts=markdown) * [Seguridad en tiempo de ejecución en la nube](https://www.paloaltonetworks.lat/cortex/cloud/runtime-security?ts=markdown) * [Prisma Cloud](https://www.paloaltonetworks.lat/prisma/cloud?ts=markdown) * [SOC basado en IA](https://www.paloaltonetworks.lat/cortex?ts=markdown) * [Cortex Advanced Email Security](https://www.paloaltonetworks.lat/cortex/advanced-email-security?ts=markdown) * [Cortex Exposure Management](https://www.paloaltonetworks.lat/cortex/exposure-management?ts=markdown) * [Cortex XSIAM](https://www.paloaltonetworks.lat/cortex/cortex-xsiam?ts=markdown) * [Cortex XDR](https://www.paloaltonetworks.lat/cortex/cortex-xdr?ts=markdown) * [Cortex XSOAR](https://www.paloaltonetworks.lat/cortex/cortex-xsoar?ts=markdown) * [Cortex Xpanse](https://www.paloaltonetworks.lat/cortex/cortex-xpanse?ts=markdown) * [Detección y respuesta gestionadas de Unit 42](https://www.paloaltonetworks.lat/cortex/managed-detection-and-response?ts=markdown) * [XSIAM gestionado](https://www.paloaltonetworks.lat/cortex/managed-xsiam?ts=markdown) * Soluciones ![black arrow pointing left to go back to main navigation](https://www.paloaltonetworks.com/etc/clientlibs/clean/imgs/arrow-right-black.svg) Soluciones Seguridad de IA * [Ecosistema de IA seguro](https://www.paloaltonetworks.lat/prisma/prisma-ai-runtime-security?ts=markdown) * [Uso seguro de GenAI](https://www.paloaltonetworks.lat/sase/ai-access-security?ts=markdown) Seguridad de red * [Seguridad de redes en la nube](https://www.paloaltonetworks.lat/network-security/software-firewalls?ts=markdown) * [Seguridad para centros de datos](https://www.paloaltonetworks.lat/network-security/data-center?ts=markdown) * [Seguridad de DNS](https://www.paloaltonetworks.lat/network-security/advanced-dns-security?ts=markdown) * [Detección y prevención de intrusiones](https://www.paloaltonetworks.lat/network-security/advanced-threat-prevention?ts=markdown) * [Seguridad de IoT](https://www.paloaltonetworks.lat/network-security/enterprise-device-security?ts=markdown) * [Seguridad de 5g](https://www.paloaltonetworks.lat/network-security/5g-security?ts=markdown) * [Proteja todas las aplicaciones, los usuarios y las ubicaciones](https://www.paloaltonetworks.lat/sase/secure-users-data-apps-devices?ts=markdown) * [Transformación segura de sucursales](https://www.paloaltonetworks.lat/sase/secure-branch-transformation?ts=markdown) * [Trabajo seguro en cualquier dispositivo](https://www.paloaltonetworks.lat/sase/secure-work-on-any-device?ts=markdown) * [Reemplazo de VPN](https://www.paloaltonetworks.lat/sase/vpn-replacement-for-secure-remote-access?ts=markdown) * [Seguridad web y contra phishing](https://www.paloaltonetworks.lat/network-security/advanced-url-filtering?ts=markdown) Seguridad en la nube * [Gestión de posturas de seguridad de las aplicaciones (ASPM)](https://www.paloaltonetworks.lat/cortex/cloud/application-security-posture-management?ts=markdown) * [Seguridad de la cadena de suministro de software](https://www.paloaltonetworks.lat/cortex/cloud/software-supply-chain-security?ts=markdown) * [Seguridad de código](https://www.paloaltonetworks.lat/cortex/cloud/code-security?ts=markdown) * [Gestión de posturas de seguridad en la nube (CSPM)](https://www.paloaltonetworks.lat/cortex/cloud/cloud-security-posture-management?ts=markdown) * [Gestión de derechos de infraestructura en la nube (CIEM)](https://www.paloaltonetworks.lat/cortex/cloud/cloud-infrastructure-entitlement-management?ts=markdown) * [Gestión de posturas de seguridad de los datos (DSPM)](https://www.paloaltonetworks.lat/cortex/cloud/data-security-posture-management?ts=markdown) * [Gestión de la postura de seguridad de IA (AI-SPM)](https://www.paloaltonetworks.lat/cortex/cloud/ai-security-posture-management?ts=markdown) * [Detección y respuesta en la nube (CDR)](https://www.paloaltonetworks.lat/cortex/cloud-detection-and-response?ts=markdown) * [Protección de cargas de trabajo en la nube (CWP)](https://www.paloaltonetworks.lat/cortex/cloud/cloud-workload-protection?ts=markdown) * [Seguridad de aplicaciones web y API (WAAS)](https://www.paloaltonetworks.lat/cortex/cloud/web-app-api-security?ts=markdown) Operaciones de seguridad * [Detección y respuesta en la nube](https://www.paloaltonetworks.lat/cortex/cloud-detection-and-response?ts=markdown) * [Automatización de la seguridad de red](https://www.paloaltonetworks.lat/cortex/network-security-automation?ts=markdown) * [Gestión de casos de incidentes](https://www.paloaltonetworks.lat/cortex/incident-case-management?ts=markdown) * [Automatización del SOC](https://www.paloaltonetworks.lat/cortex/security-operations-automation?ts=markdown) * [Gestión de inteligencia sobre amenazas](https://www.paloaltonetworks.lat/cortex/threat-intel-management?ts=markdown) * [Detección y respuesta gestionadas](https://www.paloaltonetworks.lat/cortex/managed-detection-and-response?ts=markdown) * [Gestión de la superficie de ataque](https://www.paloaltonetworks.lat/cortex/cortex-xpanse/attack-surface-management?ts=markdown) * [Gestión del cumplimiento](https://www.paloaltonetworks.lat/cortex/cortex-xpanse/compliance-management?ts=markdown) * [Gestión de operaciones de Internet](https://www.paloaltonetworks.lat/cortex/cortex-xpanse/internet-operations-management?ts=markdown) Seguridad de endpoints * [Protección de endpoints](https://www.paloaltonetworks.lat/cortex/endpoint-protection?ts=markdown) * [Detección y respuesta extendidas](https://www.paloaltonetworks.lat/cortex/detection-and-response?ts=markdown) * [Protección contra ransomware](https://www.paloaltonetworks.lat/cortex/ransomware-protection?ts=markdown) * [Investigación forense digital](https://www.paloaltonetworks.lat/cortex/digital-forensics?ts=markdown) [Sectores](https://www.paloaltonetworks.lat/industry?ts=markdown) * [Sector público](https://www.paloaltonetworks.com/industry/public-sector) * [Ubicaciones de servicios](https://www.paloaltonetworks.com/industry/financial-services) * [Manufactura](https://www.paloaltonetworks.com/industry/manufacturing) * [Atención de salud](https://www.paloaltonetworks.com/industry/healthcare) * [Soluciones para empresas pequeñas y medianas](https://www.paloaltonetworks.com/industry/small-medium-business-portfolio) * Servicios ![black arrow pointing left to go back to main navigation](https://www.paloaltonetworks.com/etc/clientlibs/clean/imgs/arrow-right-black.svg) Servicios [Servicios de inteligencia sobre amenazas y respuesta ante incidentes](https://www.paloaltonetworks.lat/unit42?ts=markdown) * [Evaluar](https://www.paloaltonetworks.lat/unit42/assess?ts=markdown) * [Evaluación de seguridad de IA](https://www.paloaltonetworks.lat/unit42/assess/ai-security-assessment?ts=markdown) * [Evaluación de la superficie de ataque](https://www.paloaltonetworks.lat/unit42/assess/attack-surface-assessment?ts=markdown) * [Análisis de la preparación para vulneraciones](https://www.paloaltonetworks.lat/unit42/assess/breach-readiness-review?ts=markdown) * [Evaluación de la preparación para BEC](https://www.paloaltonetworks.com/bec-readiness-assessment) * [Evaluación de seguridad en la nube](https://www.paloaltonetworks.com/unit42/assess/cloud-security-assessment) * [Evaluación de vulneraciones](https://www.paloaltonetworks.lat/unit42/assess/compromise-assessment?ts=markdown) * [Evaluación de riesgo cibernético](https://www.paloaltonetworks.lat/unit42/assess/cyber-risk-assessment?ts=markdown) * [Gestiones cibernéticas de fusiones y adquisiciones](https://www.paloaltonetworks.lat/unit42/assess/mergers-acquisitions-cyber-due-dilligence?ts=markdown) * [Pruebas de penetración](https://www.paloaltonetworks.lat/unit42/assess/penetration-testing?ts=markdown) * [Ejercicios del equipo púrpura](https://www.paloaltonetworks.lat/unit42/assess/purple-teaming?ts=markdown) * [Evaluación de preparación de ransomware](https://www.paloaltonetworks.lat/unit42/assess/ransomware-readiness-assessment?ts=markdown) * [Evaluación de SOC](https://www.paloaltonetworks.com/unit42/assess/cloud-security-assessment) * [Evaluación de riesgos de la cadena de suministro](https://www.paloaltonetworks.lat/unit42/assess/supply-chain-risk-assessment?ts=markdown) * [Ejercicios de simulación](https://www.paloaltonetworks.lat/unit42/assess/tabletop-exercise?ts=markdown) * [Anticipo de Unit 42](https://www.paloaltonetworks.lat/unit42/retainer?ts=markdown) * [Responder](https://www.paloaltonetworks.lat/unit42/respond?ts=markdown) * [Respuesta ante incidentes en la nube](https://www.paloaltonetworks.lat/unit42/respond/cloud-incident-response?ts=markdown) * [Investigación forense digital](https://www.paloaltonetworks.lat/unit42/respond/digital-forensics?ts=markdown) * [Respuesta ante incidentes](https://www.paloaltonetworks.lat/unit42/respond/incident-response?ts=markdown) * [Detección y respuesta administradas](https://www.paloaltonetworks.lat/unit42/respond/managed-detection-response?ts=markdown) * [Búsqueda de amenazas gestionada](https://www.paloaltonetworks.lat/unit42/respond/managed-threat-hunting?ts=markdown) * [XSIAM gestionado](https://www.paloaltonetworks.lat/cortex/managed-xsiam?ts=markdown) * [Anticipo de Unit 42](https://www.paloaltonetworks.lat/unit42/retainer?ts=markdown) * [Transformar](https://www.paloaltonetworks.lat/unit42/transform?ts=markdown) * [Desarrollo y revisión del plan de IR](https://www.paloaltonetworks.lat/unit42/transform/incident-response-plan-development-review?ts=markdown) * [Diseño de programas de seguridad](https://www.paloaltonetworks.lat/unit42/transform/security-program-design?ts=markdown) * [CISO virtual](https://www.paloaltonetworks.lat/unit42/transform/vciso?ts=markdown) * [Asesoría de Confianza Cero](https://www.paloaltonetworks.com/unit42/assess/cloud-security-assessment) [Servicios globales de atención al cliente](https://www.paloaltonetworks.lat/services?ts=markdown) * [Educación y capacitación](https://www.paloaltonetworks.com/services/education) * [Servicios profesionales](https://www.paloaltonetworks.com/services/consulting) * [Herramientas de éxito](https://www.paloaltonetworks.com/services/customer-success-tools) * [Servicios de asistencia](https://www.paloaltonetworks.com/services/solution-assurance) * [Éxito de clientes](https://www.paloaltonetworks.com/services/customer-success) [![](https://www.paloaltonetworks.com/etc/clientlibs/clean/imgs/logo-unit-42.svg) RETENEDOR DE UNIT 42 Está personalizado para que se adapte a las necesidades de su organización, por lo que puede optar por asignar las horas del retenedor a cualquiera de nuestras ofertas, incluidos los servicios proactivos de gestión de riesgo cibernético. Sepa cómo poner al excelente equipo de respuesta ante incidentes de Unit 42 en marcación rápida. Más información](https://www.paloaltonetworks.lat/unit42/retainer?ts=markdown) * Socios ![black arrow pointing left to go back to main navigation](https://www.paloaltonetworks.com/etc/clientlibs/clean/imgs/arrow-right-black.svg) Socios Socios de NextWave * [Comunidad de socios de NextWave](https://www.paloaltonetworks.com/partners) * [Proveedores de servicios en la nube](https://www.paloaltonetworks.com/partners/nextwave-for-csp) * [Integradores de sistemas globales](https://www.paloaltonetworks.com/partners/nextwave-for-gsi) * [Socios de tecnología](https://www.paloaltonetworks.com/partners/technology-partners) * [Proveedores de servicio](https://www.paloaltonetworks.com/partners/service-providers) * [Proveedores de soluciones](https://www.paloaltonetworks.com/partners/nextwave-solution-providers) * [Proveedores de servicios de seguridad gestionados](https://www.paloaltonetworks.com/partners/managed-security-service-providers) Tome medidas * [Inicio de sesión en el portal](https://www.paloaltonetworks.com/partners/nextwave-partner-portal) * [Programa de servicios gestionados](https://www.paloaltonetworks.com/partners/managed-security-services-provider-program) * [Conviértase en socio](https://paloaltonetworks.my.site.com/NextWavePartnerProgram/s/partnerregistration?type=becomepartner) * [Solicitar acceso](https://paloaltonetworks.my.site.com/NextWavePartnerProgram/s/partnerregistration?type=requestaccess) * [Encuentre un socio](https://paloaltonetworks.my.site.com/NextWavePartnerProgram/s/partnerlocator) [CYBERFORCE CYBERFORCE representa al 1 % de los principales ingenieros asociados en los que se confía por su experiencia en seguridad. Más información](https://www.paloaltonetworks.com/cyberforce) * Empresa ![black arrow pointing left to go back to main navigation](https://www.paloaltonetworks.com/etc/clientlibs/clean/imgs/arrow-right-black.svg) Empresa Palo Alto Networks * [Acerca de nosotros](https://www.paloaltonetworks.lat/about-us?ts=markdown) * [Equipo de administración](https://www.paloaltonetworks.com/about-us/management) * [Relaciones con inversionistas](https://investors.paloaltonetworks.com/) * [Ubicaciones](https://www.paloaltonetworks.com/about-us/locations) * [Ética y cumplimiento](https://www.paloaltonetworks.com/company/ethics-and-compliance) * [Responsabilidad corporativa](https://www.paloaltonetworks.com/about-us/corporate-responsibility) * [Militares y veteranos](https://jobs.paloaltonetworks.com/military) [¿Por qué elegir a Palo Alto Networks?](https://www.paloaltonetworks.lat/why-paloaltonetworks?ts=markdown) * [Seguridad de Precision AI](https://www.paloaltonetworks.lat/precision-ai-security?ts=markdown) * [El enfoque de nuestra plataforma](https://www.paloaltonetworks.lat/why-paloaltonetworks/platformization?ts=markdown) * [Acelere su transformación en ciberseguridad](https://www.paloaltonetworks.com/why-paloaltonetworks/nam-cxo-portfolio) * [Premios y reconocimientos](https://www.paloaltonetworks.com/about-us/awards) * [Experiencias de clientes](https://www.paloaltonetworks.lat/customers?ts=markdown) * [Certificaciones globales](https://www.paloaltonetworks.com/legal-notices/trust-center/compliance) * [Programa Trust 360](https://www.paloaltonetworks.com/resources/whitepapers/trust-360) Oportunidades laborales * [Resumen](https://jobs.paloaltonetworks.com/) * [Cultura y beneficios](https://jobs.paloaltonetworks.com/en/culture/) [El lugar de trabajo más adorado de Newsweek "Negocios que hacen lo correcto para sus empleados" Seguir leyendo](https://www.paloaltonetworks.com/company/press/2021/palo-alto-networks-secures-top-ranking-on-newsweek-s-most-loved-workplaces-list-for-2021) * Más ![black arrow pointing left to go back to main navigation](https://www.paloaltonetworks.com/etc/clientlibs/clean/imgs/arrow-right-black.svg) Más Recursos * [Blog](https://www.paloaltonetworks.com/blog/) * [Investigación de amenazas de Unit 42](https://unit42.paloaltonetworks.com/) * [Comunidades](https://www.paloaltonetworks.com/communities) * [Biblioteca de contenido](https://www.paloaltonetworks.lat/resources?ts=markdown) * [Cyberpedia](https://www.paloaltonetworks.lat/cyberpedia?ts=markdown) * [Tech Insider](https://techinsider.paloaltonetworks.com/) * [Base de conocimientos](https://knowledgebase.paloaltonetworks.com/) * [Palo Alto Networks TV](https://tv.paloaltonetworks.com/) * [Perspectivas de líderes](https://www.paloaltonetworks.com/perspectives/) * [Revista Cyber Perspectivas](https://www.paloaltonetworks.com/cybersecurity-perspectives/cyber-perspectives-magazine) * [Ubicaciones regionales en la nube](https://www.paloaltonetworks.com/products/regional-cloud-locations) * [Documentos técnicos](https://docs.paloaltonetworks.com/) * [Evaluación de la postura de seguridad](https://www.paloaltonetworks.com/security-posture-assessment) * [Podcast Threat Vector](https://unit42.paloaltonetworks.com/unit-42-threat-vector-podcast/) Conectar * [Comunidad LIVE](https://live.paloaltonetworks.com/) * [Eventos](https://events.paloaltonetworks.com/) * [Centro de reuniones informativas ejecutivas](https://www.paloaltonetworks.com/about-us/executive-briefing-program) * [Videos de demostración](https://www.paloaltonetworks.com/demos) * [Contáctenos](https://www.paloaltonetworks.lat/company/contact?ts=markdown) [Blog Manténgase al día sobre las tendencias del sector y las últimas innovaciones de la empresa de ciberseguridad más grande del mundo Más información](https://www.paloaltonetworks.com/blog/) * LA ![black arrow pointing left to go back to main navigation](https://www.paloaltonetworks.com/etc/clientlibs/clean/imgs/arrow-right-black.svg) Language * [USA (ENGLISH)](https://www.paloaltonetworks.com) * [AUSTRALIA (ENGLISH)](https://www.paloaltonetworks.com.au) * [BRAZIL (PORTUGUÉS)](https://www.paloaltonetworks.com.br) * [CANADA (ENGLISH)](https://www.paloaltonetworks.ca) * [CHINA (简体中文)](https://www.paloaltonetworks.cn) * [FRANCE (FRANÇAIS)](https://www.paloaltonetworks.fr) * [GERMANY (DEUTSCH)](https://www.paloaltonetworks.de) * [INDIA (ENGLISH)](https://www.paloaltonetworks.in) * [ITALY (ITALIANO)](https://www.paloaltonetworks.it) * [JAPAN (日本語)](https://www.paloaltonetworks.jp) * [KOREA (한국어)](https://www.paloaltonetworks.co.kr) * LATIN AMERICA (ESPAÑOL) * [MEXICO (ESPAÑOL)](https://www.paloaltonetworks.com.mx) * [SINGAPORE (ENGLISH)](https://www.paloaltonetworks.sg) * [SPAIN (ESPAÑOL)](https://www.paloaltonetworks.es) * [TAIWAN (繁體中文)](https://www.paloaltonetworks.tw) * [UK (ENGLISH)](https://www.paloaltonetworks.co.uk) * [Comenzar](https://www.paloaltonetworks.lat/get-started?ts=markdown) * [Contacte con nosotros](https://www.paloaltonetworks.lat/company/contact?ts=markdown) * [Recursos](https://www.paloaltonetworks.lat/resources?ts=markdown) * [Obtener asistencia](https://support.paloaltonetworks.com/support) * [¿Está en riesgo?](https://start.paloaltonetworks.com/contact-unit42.html) * [Analizar Zero Trust](https://www.paloaltonetworks.lat/zero-trust?ts=markdown) Búsqueda Close search modal [](https://www.paloaltonetworks.com/?ts=markdown) 1. [Cyberpedia](https://www.paloaltonetworks.lat/cyberpedia?ts=markdown) 2. [Cloud Security](https://www.paloaltonetworks.com/cyberpedia/cloud-security?ts=markdown) 3. [AI-Powered Applications](https://www.paloaltonetworks.lat/cyberpedia/large-language-models-llm?ts=markdown) 4. [¿Qué son los modelos de lenguaje grande (LLM)?](https://www.paloaltonetworks.lat/cyberpedia/large-language-models-llm?ts=markdown) Contenido * [¿Cuáles son algunos LLM actuales?](#what) * [Cómo funcionan los LLM](#how) * [Beneficios de los LLM](#benefits) * [Desafíos con los LLM](#challenges) * [Casos de uso y opciones de implementación de LLM](#use-cases) * [‍LLM Preocupaciones de seguridad](#llm) * [El Top Ten de OWASP: Riesgos de seguridad del LLM](#owasp) * [Preguntas frecuentes sobre el modelo de lenguas grandes](#faqs) # ¿Qué son los modelos de lenguaje grande (LLM)? Contenido * [¿Cuáles son algunos LLM actuales?](#what) * [Cómo funcionan los LLM](#how) * [Beneficios de los LLM](#benefits) * [Desafíos con los LLM](#challenges) * [Casos de uso y opciones de implementación de LLM](#use-cases) * [‍LLM Preocupaciones de seguridad](#llm) * [El Top Ten de OWASP: Riesgos de seguridad del LLM](#owasp) * [Preguntas frecuentes sobre el modelo de lenguas grandes](#faqs) 1. ¿Cuáles son algunos LLM actuales? * [1. ¿Cuáles son algunos LLM actuales?](#what) * [2. Cómo funcionan los LLM](#how) * [3. Beneficios de los LLM](#benefits) * [4. Desafíos con los LLM](#challenges) * [5. Casos de uso y opciones de implementación de LLM](#use-cases) * [6. ‍LLM Preocupaciones de seguridad](#llm) * [7. El Top Ten de OWASP: Riesgos de seguridad del LLM](#owasp) * [8. Preguntas frecuentes sobre el modelo de lenguas grandes](#faqs) Los modelos de lenguaje grande (LLM) son un desarrollo puntero del procesamiento del lenguaje natural (PLN) diseñado para comprender y generar el lenguaje humano. Los LLM son modelos avanzados de IA entrenados en grandes cantidades de datos de texto, lo que les permite reconocer patrones lingüísticos, comprender el contexto y producir respuestas coherentes y contextualmente relevantes. Mientras que la PNL proporciona las técnicas fundacionales para que las máquinas lidien con el lenguaje, las LLM representan un enfoque especializado que ha mejorado significativamente la capacidad de la máquina para imitar la comprensión y generación del lenguaje similar a la humana.... ## ¿Cuáles son algunos LLM actuales? Los LLM representan la frontera del procesamiento del lenguaje natural, y varios modelos dominan actualmente el espacio, entre ellos el Gemini de Google, el Galactica y el Llama de Meta, la serie GPT de OpenAI y otros como el Falcon 40B y el Phi-1. Con diferentes arquitecturas y tamaños de parámetros, estos modelos destacan en tareas que van desde responder a consultas hasta generar textos coherentes y contextualmente relevantes en pasajes largos. [BERT](https://blog.google/products/search/search-language-understanding-bert/), introducido por Google, sentó las bases fundamentales con su arquitectura basada en transformadores. Por otro lado, Meta's Galactica, un participante reciente, se dirige explícitamente a la comunidad científica mientras se enfrenta al escrutinio por producir "alucinaciones" engañosas que podrían tener profundas implicaciones en el ámbito científico. Mientras tanto, la serie GPT de OpenAI, especialmente GPT-3 y GPT-4, ha sido pionera en cuanto a su capacidad, ya que se rumorea que esta última contiene más de 170 billones de parámetros y es capaz de procesar tanto texto como imágenes. Las proezas de este modelo llevaron a especular sobre la proximidad de la inteligencia general artificial (AGI), una capacidad teórica de las máquinas a la par o superior a la inteligencia humana. Los retos, sin embargo, persisten. La enorme escala y complejidad de estos modelos puede dar lugar a resultados impredecibles, y sus inmensos requisitos de capacitación suscitan preocupaciones sobre la sostenibilidad medioambiental y los resultados sesgados. En medio de las preocupaciones, sin embargo, la evolución de los LLM promete avances en diversos sectores, desde tareas mundanas como la mejora de las búsquedas en Internet hasta áreas críticas como la investigación médica y la ciberseguridad. A medida que avanza el campo, el equilibrio entre potencial y precaución sigue siendo primordial. ## Cómo funcionan los LLM Para destacar en la comprensión y generación de un lenguaje similar al humano, los LLM utilizan una combinación de redes neuronales, vastos conjuntos de datos de entrenamiento y una arquitectura denominada transformadores. ### Redes neuronales En el núcleo de los grandes modelos lingüísticos se encuentran las redes neuronales con múltiples capas, conocidas como modelos de Aprendizaje profundo. Estas redes están formadas por nodos interconectados, o neuronas, que aprenden a reconocer patrones en los datos de entrada durante la fase de entrenamiento. Los LLM se entrenan en un corpus masivo de texto, que abarca diversas fuentes como páginas web, libros y artículos, lo que les permite aprender gramática, sintaxis, semántica e información contextual. A lomos de algoritmos diseñados para reconocer patrones, las redes neuronales interpretan los datos sensoriales mediante una especie de [percepción maquinal](https://www.paloaltonetworks.lat/cyberpedia/machine-learning-ml?ts=markdown), etiquetado o agrupación de la entrada bruta. Las arquitecturas de las redes neuronales van desde las simples redes feedforward, en las que las conexiones entre los nodos no forman un ciclo, hasta las estructuras complejas con capas sofisticadas y múltiples bucles de retroalimentación. * **Redes neuronales evolutivas (CNN)**: Son especialmente eficaces para procesar datos con una topología en forma de cuadrícula. Algunos ejemplos son los datos de imágenes, que pueden considerarse como una cuadrícula 2D de píxeles. * **Redes neuronales recurrentes (RNN)**: Son adecuados para datos secuenciales como el texto y el habla. La salida en cada paso depende de los cálculos anteriores y de un cierto tipo de memoria sobre lo que se ha procesado hasta el momento. ### Transformers La arquitectura del transformador es un componente crítico de los LLM, introducido por Vaswani et al. en 2017. Los transformadores abordan las limitaciones de los modelos secuenciales anteriores, como las RNN y las LSTM, que tenían problemas con las dependencias de largo alcance y la paralelización. Los transformadores emplean un mecanismo denominado autoatención, que permite al modelo sopesar la importancia de las distintas palabras en el contexto de entrada y captar las relaciones entre ellas, independientemente de su distancia en la secuencia. ### Tokenización La tokenización es el primer paso en el procesamiento de texto con un LLM. El texto de entrada se descompone en unidades más pequeñas llamadas tokens, que luego se convierten en representaciones numéricas (vectores) que la red neuronal puede procesar. Durante el entrenamiento, el modelo aprende a generar tokens de salida contextualmente apropiados basándose en los tokens de entrada y sus relaciones. El proceso de entrenamiento consiste en ajustar los pesos de las conexiones de la red neuronal mediante una técnica denominada retropropagación. Al minimizar la diferencia entre las predicciones del modelo y los tokens objetivo reales en los datos de entrenamiento, el modelo aprende a generar un lenguaje más preciso y coherente. Una vez entrenados, los grandes modelos lingüísticos pueden afinarse en tareas o dominios específicos, como el análisis de sentimientos, el resumen o la respuesta a preguntas, entrenando el modelo durante un breve periodo en un conjunto de datos más pequeño y específico de la tarea. Este proceso permite al LLM adaptar su comprensión lingüística generalizada a los matices y requisitos de la tarea de destino. ***Artículo relacionado** : [La inteligencia artificial explicada](https://www.paloaltonetworks.lat/cyberpedia/artificial-intelligence-ai?ts=markdown)* ## Beneficios de los LLM Los grandes modelos lingüísticos ofrecen una amplia gama de ventajas, entre las que se incluyen: 1. **Comprensión avanzada del lenguaje natural:** Los LLM pueden comprender el contexto y los matices del lenguaje, lo que hace que sus respuestas sean más pertinentes y parecidas a las humanas. 2. **Versatilidad:** Los LLM pueden aplicarse a diversas tareas, como la generación de textos, el resumen, la traducción y la respuesta a preguntas, sin necesidad de un entrenamiento específico para cada tarea. 3. **Traducción:** Los LLM formados en varias lenguas pueden traducir eficazmente entre ellas. Algunos teorizan que incluso podrían derivar significados de lenguas desconocidas o perdidas basándose en patrones. 4. **Automatización de tareas mundanas:** Los LLM pueden realizar tareas relacionadas con el texto como resumir, reformular y generar contenidos, lo que puede ser especialmente útil para las empresas y los creadores de contenidos. 5. **Habilidades emergentes:** Debido a la gran cantidad de datos con los que se les entrena, los LLM pueden mostrar capacidades inesperadas pero impresionantes, como la aritmética de varios pasos, la respuesta a preguntas complejas y la generación de cadenas de pensamiento. 6. **Depuración y codificación:** En ciberseguridad, los LLM pueden ayudar a escribir y depurar código más rápidamente que los métodos tradicionales. 7. **Análisis de los patrones de amenaza:** En ciberseguridad, los LLM pueden identificar patrones relacionados con amenazas avanzadas persistentes, ayudando a la atribución de incidentes y a la mitigación en tiempo real. 8. **Automatización de la respuesta:** En los centros de operaciones de seguridad, los LLM pueden automatizar las respuestas, generar scripts y herramientas y ayudar en la redacción de informes, reduciendo el tiempo que los profesionales de la seguridad dedican a las tareas rutinarias. A pesar de estos beneficios, es esencial recordar que los LLM tienen inconvenientes y consideraciones éticas que deben ser administradas. ## Desafíos con los LLM Aunque es fácil dejarse atrapar por los beneficios que aportan las impresionantes capacidades lingüísticas de un LLM, las organizaciones también deben ser conscientes y estar preparadas para afrontar los posibles retos que conllevan. ### Retos operativos 1. **Alucinación:** En ocasiones, los LLM pueden producir resultados extraños y falsos o dar la impresión de ser sensibles. Estos resultados no se basan en los datos de entrenamiento del modelo y se denominan "alucinaciones". 2. **Sesgo:** Si un LLM se entrena con datos sesgados, sus resultados pueden ser discriminatorios o sesgados contra determinados grupos, razas o clases. Incluso después del entrenamiento, los prejuicios pueden evolucionar en función de las interacciones de los usuarios. Tay, de Microsoft, es un ejemplo notorio de cómo el sesgo puede manifestarse y escalar. 3. **Glitch Tokens o Ejemplos Adversarios:** Se trata de entradas específicas elaboradas para hacer que el modelo produzca salidas erróneas o engañosas, haciendo que el modelo "funcione mal". 4. **Falta de explicabilidad:** Puede resultar difícil comprender cómo los LLM toman ciertas decisiones o generan resultados específicos, lo que dificulta su resolución o perfeccionamiento. 5. **Exceso de confianza:** A medida que los LLM se integran más en diversos sectores, existe el riesgo de una dependencia excesiva, que podría dejar de lado la experiencia y la intuición humanas. ## Casos de uso y opciones de implementación de LLM Los LLM ofrecen a las organizaciones una serie de patrones de implementación opcionales, cada uno de los cuales depende de un conjunto diferente de herramientas y de las implicaciones de seguridad relacionadas. ### Uso de LLM preentrenados Proveedores en la nube como OpenAI y Anthropic ofrecen acceso mediante API a potentes LLM que ellos mismos administran y aseguran. Las organizaciones pueden aprovechar estas API para incorporar capacidades LLM en sus aplicaciones sin tener que administrar la infraestructura subyacente. Como alternativa, los LLM de código abierto, como el LLaMa de Meta, pueden ejecutarse en la propia infraestructura de una organización, lo que proporciona más control y opciones de personalización. En el lado negativo, los LLM de código abierto requieren importantes recursos informáticos y conocimientos de IA para su implementación y mantenimiento seguros. #### Modelos de implementación de LLMs * **SaaS basado en API**: La infraestructura es proporcionada y administrada por el desarrollador del LLM (por ejemplo, OpenAI) y aprovisionada a través de una API pública. * **CSP gestionado**: El LLM se implementa en infraestructuras proporcionadas por hiperescaladores en nube y puede ejecutarse en una nube privada o pública, como Azure, OpenAI y Amazon Bedrock. * **Autogestión**: El LLM se implementa en la propia infraestructura de la empresa, lo que sólo es relevante para los modelos de código abierto o de creación propia. Los LLM preentrenados ofrecen diversas funcionalidades: generación de contenidos, chatbots, análisis de sentimientos, traducción de idiomas y asistentes de código. Una empresa de comercio electrónico podría utilizar un LLM para generar descripciones de productos, mientras que una empresa de desarrollo de software podría aprovechar un asistente de codificación impulsado por un LLM para aumentar la productividad de los programadores. #### Implicaciones de seguridad asociadas a los LLM preentrenados La disponibilidad de API en la nube de fácil acceso y de modelos de código abierto ha reducido drásticamente las barreras para añadir capacidades lingüísticas avanzadas de IA a las aplicaciones. Los desarrolladores pueden ahora incorporar los LLM a su software sin necesidad de tener profundos conocimientos en IA y ML. Aunque esto acelera la innovación, aumenta el riesgo de proyectos de IA en la sombra que carecen de una supervisión adecuada de la seguridad y el cumplimiento. Los equipos de desarrollo, mientras tanto, pueden estar experimentando con los LLM sin tener plenamente en cuenta la privacidad de los datos, la [gobernanza de los modelos](https://www.paloaltonetworks.lat/cyberpedia/ai-governance?ts=markdown)y las cuestiones de control de los resultados. ### Ajuste fino y generación mejorada por recuperación (RAG) Para personalizar los LLM para aplicaciones específicas, las organizaciones pueden perfeccionarlos en conjuntos de datos más pequeños relacionados con la tarea deseada o implementar el GAR, que consiste en integrar los LLM con bases de conocimientos para responder preguntas y resumir contenidos. Los casos de uso para estos incluyen asistentes especializados en IA con acceso a datos internos (por ejemplo, para atención al cliente, RRHH o servicio de asistencia informática) y aplicaciones de preguntas y respuestas (por ejemplo, para documentación, repositorios de código o materiales de capacitación). Por ejemplo, el chatbot de atención al cliente de una empresa de telecomunicaciones podría afinarse en la documentación del producto, las preguntas más frecuentes o las interacciones de asistencia anteriores para ayudar mejor a los clientes con los problemas técnicos y la administración de cuentas. #### Implicaciones de seguridad asociadas a la puesta a punto y al GAR El ajuste fino y el GAR permiten a las organizaciones adaptar los LLM a su dominio y datos específicos, lo que permite obtener resultados más específicos y precisos. Sin embargo, este proceso de personalización a menudo implica exponer el modelo a información interna sensible durante el entrenamiento. Se requieren sólidas prácticas de gobernanza de datos para garantizar que sólo se utilicen datos autorizados para el ajuste y que los modelos resultantes sean seguros. ### Formación de modelos Algunas grandes empresas tecnológicas e instituciones de investigación optan por invertir en la capacitación de sus propios LLM. Aunque se trata de un proceso que consume muchos recursos y que requiere una enorme potencia de cálculo y conjuntos de datos, ofrece a las organizaciones un control total sobre la arquitectura del modelo, los datos de entrenamiento y el proceso de optimización. Además, la organización mantiene todos los derechos de propiedad intelectual sobre los modelos resultantes. La formación de modelos puede dar lugar a aplicaciones avanzadas como el descubrimiento de fármacos, la ciencia de materiales o los sistemas autónomos. Una organización sanitaria podría desarrollar un modelo para ayudar a diagnosticar enfermedades a partir de historiales médicos y datos de diagnóstico por imagen, por ejemplo. #### Implicaciones de seguridad asociadas a la formación de modelos La capacitación de LLM personalizados plantea cuestiones difíciles sobre cómo mantener la responsabilidad y la auditabilidad del comportamiento de los modelos cuando se trata de modelos complejos de caja negra. El propio proceso de capacitación consume enormes recursos informáticos, lo que requiere un fuerte aislamiento y controles de acceso en torno al entorno de capacitación para evitar abusos o interferencias. En primer lugar, la organización debe construir una infraestructura informática de alto rendimiento y conservar cuidadosamente conjuntos de datos masivos, lo que puede introducir nuevos retos de seguridad. ## ‍LLM Preocupaciones de seguridad Una de las principales preocupaciones a la hora de implementar grandes modelos lingüísticos en entornos empresariales es la posible inclusión de datos confidenciales durante el entrenamiento. Una vez incorporados los datos a estos modelos, resulta difícil discernir con precisión qué información se introdujo en ellos. Esta falta de visibilidad puede resultar problemática si se tiene en cuenta la miríada de fuentes de datos utilizadas para la capacitación y las diversas personas que podrían acceder a estos datos. Garantizar la visibilidad de las fuentes de datos y mantener un control estricto sobre quién tiene acceso a ellas es crucial para evitar la exposición involuntaria de información confidencial. Una preocupación adicional es el posible uso indebido de los LLM en ciberataques. Los actores maliciosos pueden utilizar los LLM para elaborar correos electrónicos de phishing persuasivos con el fin de engañar a las personas y obtener acceso no autorizado a datos confidenciales. Este método, conocido como ingeniería social, tiene el potencial de crear contenidos convincentes y engañosos, lo que aumenta los retos de la protección de datos. Sin unos controles de acceso y unas salvaguardias rigurosos, aumenta el riesgo de que se produzcan importantes [violaciones de datos](https://www.paloaltonetworks.lat/cyberpedia/data-breach?ts=markdown) , y los actores malintencionados adquieren la capacidad de difundir con facilidad desinformación, propaganda u otros contenidos perjudiciales. Aunque los LLM tienen aplicaciones positivas casi infinitas, albergan el potencial de crear código malicioso, eludiendo los filtros convencionales para evitar tales comportamientos. Esta susceptibilidad podría conducir a una nueva era de ciberamenazas en la que las [filtraciones de datos](https://www.paloaltonetworks.lat/cyberpedia/data-leak?ts=markdown) no se limiten a robar información, sino que generen contenidos y códigos peligrosos. Si se manipulan, por ejemplo, los LLM pueden producir software malicioso, scripts o herramientas que pueden poner en peligro sistemas enteros. Su potencial para el "pirateo de recompensa" hace saltar las alarmas en el ámbito de la ciberseguridad, ya que podrían descubrirse métodos no intencionados para cumplir sus objetivos, lo que provocaría el acceso accidental o la recolección de [datos sensibles](https://www.paloaltonetworks.lat/cyberpedia/sensitive-data?ts=markdown). A medida que dependemos más de las aplicaciones LLM, se hace imperativo que las organizaciones y los individuos se mantengan alerta ante estas amenazas emergentes, preparados para proteger los datos en todo momento. ![Proteger los LLM de los principales riesgos de seguridad OWASP](https://www.paloaltonetworks.com/content/dam/pan/en_US/images/cyberpedia/llms.png "Proteger los LLM de los principales riesgos de seguridad OWASP") *Figura 1: Proteger los LLM de los principales riesgos de seguridad OWASP* ## El Top Ten de OWASP: Riesgos de seguridad del LLM Las vulnerabilidades de las aplicaciones convencionales presentan una nueva variedad de riesgos para la seguridad en los LLM. Pero fiel a su estilo, OWASP presentó oportunamente los [Los diez principales riesgos de seguridad de los LLM de OWASP](https://owasp.org/www-project-top-10-for-large-language-model-applications/) , alertando a los desarrolladores sobre los nuevos mecanismos y la necesidad de adaptar las estrategias tradicionales de remediación para sus aplicaciones que utilizan LLM. ### LLM01: Inyección rápida La inyección de prompts puede manipular un gran modelo de lenguaje mediante entradas engañosas, haciendo que el LLM ejecute las intenciones del atacante. Con las inyecciones directas, el malhechor sobrescribe las indicaciones del sistema. Con las inyecciones indirectas, los atacantes manipulan entradas de fuentes externas. Cualquiera de los dos métodos puede dar lugar a [exfiltración de datos](https://www.paloaltonetworks.lat/cyberpedia/data-exfiltration?ts=markdown), ingeniería social y otros problemas. ### LLM02: Manejo inseguro de la salida El manejo inseguro de la salida es una vulnerabilidad que ocurre cuando una salida LLM es aceptada sin escrutinio, exponiendo los sistemas backend. Surge cuando un componente posterior acepta ciegamente la salida del LLM sin un escrutinio efectivo. Un uso indebido puede provocar scripting entre sitios (XSS) y falsificación de peticiones entre sitios (CSRF) en los navegadores web, así como falsificación de peticiones del lado del servidor (SSRF), escalada de privilegios y ejecución remota de código en los sistemas backend. ### LLM03: Envenenamiento de los datos de capacitación El envenenamiento de los datos de entrenamiento se produce cuando los datos de entrenamiento LLM se manipulan a través de Common Crawl, WebText, OpenWebText, libros y otras fuentes. La manipulación introduce puertas traseras, vulnerabilidades o sesgos que comprometen la seguridad del LLM y provocan una disminución del rendimiento, la explotación del software posterior y daños a la reputación. ### LLM04: Modelo de denegación de servicio El modelo de denegación de servicio se produce cuando un atacante explota un LLM para desencadenar una operación que consume muchos recursos, lo que provoca una degradación del servicio y un aumento de los costos. Esta vulnerabilidad se ve amplificada por la naturaleza exigente de los LLM y el carácter imprevisible de las entradas de los usuarios. En un escenario modelo de denegación de servicio, un atacante se compromete con un LLM de forma que exige una cantidad desproporcionada de recursos, lo que provoca una disminución de la calidad del servicio tanto para el atacante como para los demás usuarios, al tiempo que puede generar un gasto significativo de recursos. ### LLM05: Vulnerabilidades de la cadena de suministro Las vulnerabilidades de la cadena de suministro en los LLM pueden comprometer los datos de entrenamiento, los modelos de ML y las plataformas de implementación, provocando brechas de seguridad o fallos totales del sistema. Los componentes o servicios vulnerables pueden surgir de datos de entrenamiento envenenados, plugins inseguros, software obsoleto o modelos preentrenados susceptibles. ### LLM06: Divulgación de información sensible Las aplicaciones LLM pueden exponer datos sensibles, información confidencial y algoritmos patentados, lo que da lugar a accesos no autorizados, robos de propiedad intelectual y [violaciones de datos](https://www.paloaltonetworks.lat/cyberpedia/data-breach?ts=markdown). Para mitigar estos riesgos, las aplicaciones LLM deben emplear el saneamiento de datos, implementar políticas de usuario estrictas apropiadas y restringir los tipos de datos devueltos por el LLM. ### LLM07: Diseño inseguro de plugins Los plugins pueden incluir entradas inseguras y un [control de acceso](https://www.paloaltonetworks.lat/cyberpedia/access-control?ts=markdown)insuficiente, lo que los hace propensos a peticiones maliciosas que pueden conducir a la [exfiltración de datos](https://www.paloaltonetworks.lat/cyberpedia/data-exfiltration?ts=markdown), la ejecución remota de código y la elevación de privilegios. Los desarrolladores deben seguir unas estrictas directrices de introducción de parámetros y control de acceso seguro para evitar su explotación. ### LLM08: Agencia excesiva La agencia excesiva se refiere a los sistemas basados en LLM que realizan acciones que conducen a consecuencias no intencionadas. La vulnerabilidad se deriva de conceder al LLM demasiada autonomía, un exceso de funcionalidad o excesivos permisos. Los desarrolladores deben limitar la funcionalidad de los plugins a lo que sea absolutamente esencial. También deben realizar un seguimiento de la autorización de los usuarios, exigir la aprobación humana para todas las acciones e implementar la autorización en los sistemas posteriores. ### LLM09: Exceso de confianza Un LLM puede generar contenido inapropiado cuando los usuarios humanos o los sistemas confían excesivamente en el LLM sin proporcionar la supervisión adecuada. Entre las posibles consecuencias del LLM09 se incluyen la desinformación, las vulnerabilidades de seguridad y los problemas legales. ### LLM10: Modelo de robo El robo de modelos de LLM implica el acceso no autorizado, la copia o la exfiltración de LLM patentados. El robo de modelos provoca pérdidas financieras y de ventajas competitivas, así como daños a la reputación y el acceso no autorizado a datos sensibles. Las organizaciones deben aplicar estrictas medidas de seguridad para proteger sus LLM patentados. ## Preguntas frecuentes sobre el modelo de lenguas grandes ### ‍¿Cuáles son las consideraciones de seguridad para el LLM? Para salvaguardar su LLM, implemente un enfoque de seguridad polifacético que abarque fuertes controles de acceso, restricción del acceso a los recursos de la red mediante la segmentación de la red y el sandboxing seguro, supervisión continua de los recursos y auditorías rutinarias de los registros y las actividades asociadas al LLM. ### ‍¿Cuál es la estructura del modelo LLM? La estructura del modelo LLM se basa en la arquitectura del transformador, que procesa y genera secuencias de datos utilizando mecanismos de autoatención. ### ‍¿Cómo empezar a crear un LLM? La fase inicial de construcción de un gran modelo lingüístico implica acumular una gran cantidad de datos textuales para el entrenamiento, que se segmentan en unidades de datos más pequeñas denominadas tokens para facilitar un procesamiento y un aprendizaje más fluidos. ### ¿Cuál es la diferencia entre un PNL y un LLM? La PNL es un subcampo de la IA y la lingüística que se centra en capacitar a los computadores para comprender, interpretar y generar el lenguaje humano. La PNL abarca una amplia gama de tareas, como el análisis de sentimientos, la traducción automática, el resumen de textos y el reconocimiento de entidades con nombre. Las técnicas de PNL suelen implicar algoritmos computacionales, modelado estadístico y aprendizaje automático para procesar y analizar datos textuales. Un LLM es un tipo de modelo de aprendizaje profundo, concretamente una red neuronal, diseñado para manejar tareas de PNL a gran escala. Los LLM, como GPT-3 y BERT, se entrenan con grandes cantidades de datos de texto para aprender patrones lingüísticos complejos, gramática y semántica. Estos modelos aprovechan una técnica denominada arquitectura de transformadores, que les permite captar las dependencias de largo alcance y la información contextual del lenguaje. La principal diferencia entre la PNL y la LLM es que la PNL es un campo más amplio que abarca diversas técnicas y enfoques para procesar el lenguaje humano, mientras que la LLM es un tipo específico de modelo de red neuronal diseñado para tareas avanzadas de PNL. Los LLM representan un enfoque de vanguardia dentro del dominio de la PNL, ya que ofrecen un rendimiento y unas capacidades mejoradas para comprender y generar un lenguaje similar al humano en comparación con los métodos tradicionales de la PNL. ### ¿Qué es un modelo de capacitación? Un modelo de entrenamiento en el aprendizaje automático se refiere al proceso de desarrollar una representación matemática que pueda hacer predicciones o tomar decisiones basadas en datos de entrada. Al alimentar un modelo con datos de entrenamiento etiquetados, aprende a reconocer patrones, relaciones y características que le permiten generalizar y hacer inferencias precisas sobre datos no vistos previamente. El proceso de entrenamiento consiste en ajustar los parámetros del modelo de forma iterativa para minimizar los errores y mejorar el rendimiento. Una vez que el modelo alcanza una precisión y una capacidad de generalización satisfactorias, puede implementarse para resolver problemas del mundo real, como el reconocimiento de imágenes, el procesamiento del lenguaje natural o la predicción del comportamiento de los clientes. ### ¿Qué es la inteligencia artificial (IA)? La inteligencia artificial (IA) es una rama de la informática que se centra en la creación de sistemas inteligentes capaces de simular las capacidades cognitivas humanas, como la resolución de problemas, el reconocimiento de patrones y la toma de decisiones. Al aprovechar los algoritmos, los datos y la potencia de cálculo, los sistemas de IA pueden aprender de la experiencia, adaptarse a la nueva información y realizar tareas que normalmente requieren inteligencia humana. Estos sistemas tienen aplicaciones en diversos sectores, como la sanidad, las finanzas y la fabricación, permitiendo la automatización, la mejora de la productividad y soluciones innovadoras. ### ¿Qué es el aprendizaje automático (AM)? El aprendizaje automático (AM) es un subcampo de la inteligencia artificial que consiste en desarrollar algoritmos que permitan a los computadores aprender y mejorar su rendimiento en tareas específicas sin necesidad de programación explícita. Al procesar y analizar grandes conjuntos de datos, los modelos de ML pueden identificar patrones, hacer predicciones y generar ideas, volviéndose más precisos y eficientes con el tiempo a medida que reciben más datos. Las técnicas de ML, como el aprendizaje supervisado, no supervisado y de refuerzo, tienen numerosas aplicaciones, como el procesamiento del lenguaje natural, el reconocimiento de imágenes y los sistemas de recomendación. ### ¿Qué es la IA generativa? La IA generativa es un subconjunto de la inteligencia artificial que se centra en la creación de nuevos contenidos, datos o patrones mediante el aprendizaje a partir de ejemplos existentes. Esta forma de IA aprovecha técnicas avanzadas de aprendizaje automático, como las redes generativas adversariales (GAN) y los autocodificadores variacionales (VAE), para generar resultados nunca vistos que se parezcan a los datos de entrada. Las aplicaciones de la IA generativa incluyen la síntesis de imágenes, la generación de textos y el aumento de datos, permitiendo soluciones innovadoras en campos como el arte, el diseño, el entretenimiento y la ciencia de datos. ### ¿Qué son las redes generativas adversariales (GAN)? Las redes generativas adversariales (GAN) son una clase de modelos de aprendizaje automático diseñados para generar nuevas muestras de datos que se parezcan a un conjunto de datos dado. Las GAN constan de dos redes neuronales, una generadora y otra discriminadora, que se entrenan simultáneamente de forma competitiva. El generador crea muestras sintéticas, mientras que el discriminador evalúa las muestras generadas y las distingue de los datos reales. El generador mejora continuamente su capacidad de generación de datos intentando engañar al discriminador, que, a su vez, refina su capacidad para identificar las muestras reales frente a las generadas. Este proceso adversarial continúa hasta que las muestras generadas se vuelven casi indistinguibles de los datos reales, lo que hace que las GAN sean especialmente útiles en aplicaciones como la síntesis de imágenes, el aumento de datos y la transferencia de estilos. ### ¿Qué son los autocodificadores variacionales (VAE)? Los autocodificadores variacionales (VAE) son un tipo de modelo generativo que aprende a representar distribuciones de datos complejas codificando los datos de entrada en un espacio latente de menor dimensión y reconstruyendo después los datos a partir de esta representación comprimida. Las VAE constan de dos redes neuronales: un codificador que mapea los datos de entrada a una distribución de probabilidad en el espacio latente, y un decodificador que reconstruye los datos a partir de puntos muestreados en esta distribución. El modelo VAE se entrena para minimizar el error de reconstrucción y un término de regularización que anima a la distribución aprendida a alinearse con una distribución a priori predefinida. Las VAE son capaces de generar nuevas muestras de datos descodificando puntos aleatorios muestreados del espacio latente, lo que las hace adecuadas para aplicaciones como la generación de imágenes, la eliminación de ruido de datos y el aprendizaje de representaciones. Contenido relacionado [AI-SPM garantiza la seguridad y el cumplimiento de las aplicaciones impulsadas por IA Conozca el descubrimiento y el inventario de modelos de IA, la prevención de exposición de datos y el análisis de posturas y riesgos en esta hoja de datos de AI-SPM.](https://www.paloaltonetworks.com/resources/datasheets/aispm-secure-ai-applications) [Asegurar el panorama de datos con DSPM y DDR Adelántese a los riesgos de seguridad de los datos. Descubra cómo la gestión de posturas de seguridad de datos (DSPM) con detección y respuesta de datos (DDR) llena las lagunas de ...](https://www.paloaltonetworks.com/resources/guides/dspm-ddr-big-guide) [AI-SPM: Seguridad y cumplimiento de la normativa para aplicaciones basadas en IA Prisma Cloud AI-SPM aborda los desafíos únicos de implementar IA y Gen AI a escala, al tiempo que ayuda a reducir los riesgos de seguridad y cumplimiento.](https://www.paloaltonetworks.com/blog/cloud-security/ai-spm/) [Administración de la postura de seguridad para la IA Aprenda a proteger y controlar su infraestructura, uso y datos de IA con Prisma Cloud AI-SPM.](https://www.paloaltonetworks.lat/prisma/cloud/ai-spm?ts=markdown) ![Share page on facebook](https://www.paloaltonetworks.com/etc/clientlibs/clean/imgs/resources/facebook-circular-icon.svg) ![Share page on linkedin](https://www.paloaltonetworks.com/etc/clientlibs/clean/imgs/resources/linkedin-circular-icon.svg) [![Share page by an email](https://www.paloaltonetworks.com/etc/clientlibs/clean/imgs/resources/email-circular-icon.svg)](mailto:?subject=%C2%BFQu%C3%A9%20son%20los%20modelos%20de%20lenguaje%20grande%20%28LLM%29%3F&body=Descubra%20c%C3%B3mo%20los%20grandes%20modelos%20ling%C3%BC%C3%ADsticos%20impulsados%20por%20la%20IA%20aprovechan%20los%20vastos%20datos%20de%20texto%20para%20sobresalir%20en%20las%20tareas%20de%20PNL%2C%20abriendo%20nuevas%20posibilidades%20de%20procesamiento%20y%20comprensi%C3%B3n%20del%20lenguaje.%20at%20https%3A//www.paloaltonetworks.lat/cyberpedia/large-language-models-llm) Volver arriba {#footer} ## Productos y servicios * [Plataforma de seguridad de la red con tecnología de IA](https://www.paloaltonetworks.lat/network-security?ts=markdown) * [IA segura por diseño](https://www.paloaltonetworks.lat/precision-ai-security/secure-ai-by-design?ts=markdown) * [Prisma AIRS](https://www.paloaltonetworks.lat/prisma/prisma-ai-runtime-security?ts=markdown) * [Seguridad de AI Access](https://www.paloaltonetworks.lat/sase/ai-access-security?ts=markdown) * [Servicios de seguridad entregados en la nube](https://www.paloaltonetworks.lat/network-security/security-subscriptions?ts=markdown) * [Threat Prevention avanzada](https://www.paloaltonetworks.lat/network-security/advanced-threat-prevention?ts=markdown) * [URL Filtering avanzado](https://www.paloaltonetworks.lat/network-security/advanced-url-filtering?ts=markdown) * [WildFire avanzado](https://www.paloaltonetworks.lat/network-security/advanced-wildfire?ts=markdown) * [Seguridad de DNS avanzada](https://www.paloaltonetworks.lat/network-security/advanced-dns-security?ts=markdown) * [Prevención de pérdida de datos empresariales](https://www.paloaltonetworks.lat/sase/enterprise-data-loss-prevention?ts=markdown) * [Seguridad de IoT empresarial](https://www.paloaltonetworks.lat/network-security/enterprise-iot-security?ts=markdown) * [Seguridad de IoT para dispositivos médicos](https://www.paloaltonetworks.lat/network-security/medical-iot-security?ts=markdown) * [Seguridad de OT industrial](https://www.paloaltonetworks.lat/network-security/industrial-ot-security?ts=markdown) * [Seguridad de SaaS](https://www.paloaltonetworks.lat/sase/saas-security?ts=markdown) * [Firewalls de nueva generación](https://www.paloaltonetworks.lat/network-security/next-generation-firewall?ts=markdown) * [Firewalls de hardware](https://www.paloaltonetworks.lat/network-security/hardware-firewall-innovations?ts=markdown) * [Firewalls de software](https://www.paloaltonetworks.lat/network-security/software-firewalls?ts=markdown) * [Strata Cloud Manager](https://www.paloaltonetworks.lat/network-security/strata-cloud-manager?ts=markdown) * [SD-WAN para NGFW](https://www.paloaltonetworks.lat/network-security/sd-wan-subscription?ts=markdown) * [PAN-OS](https://www.paloaltonetworks.lat/network-security/pan-os?ts=markdown) * [Panorama](https://www.paloaltonetworks.lat/network-security/panorama?ts=markdown) * [Perímetro de servicio de acceso seguro](https://www.paloaltonetworks.lat/sase?ts=markdown) * [Prisma SASE](https://www.paloaltonetworks.lat/sase?ts=markdown) * [Aceleración de aplicaciones](https://www.paloaltonetworks.lat/sase/app-acceleration?ts=markdown) * [Gestión autónoma de la experiencia digital](https://www.paloaltonetworks.lat/sase/adem?ts=markdown) * [Enterprise DLP](https://www.paloaltonetworks.lat/sase/enterprise-data-loss-prevention?ts=markdown) * [Prisma Access](https://www.paloaltonetworks.lat/sase/access?ts=markdown) * [Prisma Browser](https://www.paloaltonetworks.lat/sase/prisma-browser?ts=markdown) * [Prisma SD-WAN](https://www.paloaltonetworks.lat/sase/sd-wan?ts=markdown) * [Aislamiento del explorador remoto](https://www.paloaltonetworks.lat/sase/remote-browser-isolation?ts=markdown) * [Seguridad de SaaS](https://www.paloaltonetworks.lat/sase/saas-security?ts=markdown) * [Plataforma de operaciones de seguridad dirigida por IA](https://www.paloaltonetworks.lat/cortex?ts=markdown) * [Seguridad de nube](https://www.paloaltonetworks.lat/cortex/cloud?ts=markdown) * [Cortex Cloud](https://www.paloaltonetworks.lat/cortex/cloud?ts=markdown) * [Seguridad de las aplicaciones](https://www.paloaltonetworks.lat/cortex/cloud/application-security?ts=markdown) * [Postura de seguridad en la nube](https://www.paloaltonetworks.lat/cortex/cloud/cloud-posture-security?ts=markdown) * [Seguridad en tiempo de ejecución en la nube](https://www.paloaltonetworks.lat/cortex/cloud/runtime-security?ts=markdown) * [Prisma Cloud](https://www.paloaltonetworks.lat/prisma/cloud?ts=markdown) * [SOC impulsado por IA](https://www.paloaltonetworks.lat/cortex?ts=markdown) * [Cortex XSIAM](https://www.paloaltonetworks.lat/cortex/cortex-xsiam?ts=markdown) * [Cortex XDR](https://www.paloaltonetworks.lat/cortex/cortex-xdr?ts=markdown) * [Cortex XSOAR](https://www.paloaltonetworks.lat/cortex/cortex-xsoar?ts=markdown) * [Cortex Xpanse](https://www.paloaltonetworks.lat/cortex/cortex-xpanse?ts=markdown) * [Detección y respuesta gestionadas de Unit 42](https://www.paloaltonetworks.lat/cortex/managed-detection-and-response?ts=markdown) * [XSIAM gestionado](https://www.paloaltonetworks.lat/cortex/managed-xsiam?ts=markdown) * [Inteligencia de amenazas y respuesta ante incidentes](https://www.paloaltonetworks.lat/unit42?ts=markdown) * [Evaluaciones proactivas](https://www.paloaltonetworks.lat/unit42/assess?ts=markdown) * [Respuesta ante incidentes](https://www.paloaltonetworks.lat/unit42/respond?ts=markdown) * [Transforme su estrategia de seguridad](https://www.paloaltonetworks.lat/unit42/transform?ts=markdown) * [Descubra la inteligencia de amenazas](https://www.paloaltonetworks.lat/unit42/threat-intelligence-partners?ts=markdown) ## Empresa * [Acerca de nosotros](https://www.paloaltonetworks.com/about-us) * [Carreras](https://jobs.paloaltonetworks.com/en/) * [Contáctenos](https://www.paloaltonetworks.com/company/contact-sales) * [Responsabilidad corporativa](https://www.paloaltonetworks.com/about-us/corporate-responsibility) * [Clientes](https://www.paloaltonetworks.lat/customers?ts=markdown) * [Relaciones con inversionistas](https://investors.paloaltonetworks.com/) * [Ubicación](https://www.paloaltonetworks.com/about-us/locations) * [Sala de prensa](https://www.paloaltonetworks.lat/company/newsroom?ts=markdown) ## Enlaces populares * [Blog](https://www.paloaltonetworks.com/blog/) * [Comunidades](https://www.paloaltonetworks.com/communities) * [Biblioteca de contenido](https://www.paloaltonetworks.lat/resources?ts=markdown) * [Cyberpedia](https://www.paloaltonetworks.com/cyberpedia) * [Centro de eventos](https://events.paloaltonetworks.com/) * [Administrar preferencias de correo electrónico](https://start.paloaltonetworks.com/preference-center) * [Productos A-Z](https://www.paloaltonetworks.com/products/products-a-z) * [Certificaciones de productos](https://www.paloaltonetworks.com/legal-notices/trust-center/compliance) * [Informar sobre una vulnerabilidad](https://www.paloaltonetworks.com/security-disclosure) * [Mapa del sitio](https://www.paloaltonetworks.com/sitemap) * [Documentos técnicos](https://docs.paloaltonetworks.com/) * [Unit 42](https://unit42.paloaltonetworks.com/) * [No vender ni compartir mi información personal](https://panwedd.exterro.net/portal/dsar.htm?target=panwedd) ![PAN logo](https://www.paloaltonetworks.com/etc/clientlibs/clean/imgs/pan-logo-dark.svg) * [Privacidad](https://www.paloaltonetworks.com/legal-notices/privacy) * [Centro de confianza](https://www.paloaltonetworks.com/legal-notices/trust-center) * [Condiciones de uso](https://www.paloaltonetworks.com/legal-notices/terms-of-use) * [Documentación](https://www.paloaltonetworks.com/legal) Copyright © 2026 Palo Alto Networks. Todos los derechos reservados * [![](https://www.paloaltonetworks.com/etc/clientlibs/clean/imgs/social/youtube-black.svg)](https://www.youtube.com/user/paloaltonetworks) * [![](https://www.paloaltonetworks.com/etc/clientlibs/clean/imgs/social/twitter-x-black.svg)](https://twitter.com/PaloAltoNtwks) * [![](https://www.paloaltonetworks.com/etc/clientlibs/clean/imgs/social/facebook-black.svg)](https://www.facebook.com/PaloAltoNetworks/) * [![](https://www.paloaltonetworks.com/etc/clientlibs/clean/imgs/social/linkedin-black.svg)](https://www.linkedin.com/company/palo-alto-networks) * [![](https://www.paloaltonetworks.com/content/dam/pan/en_US/images/icons/podcast.svg)](https://unit42.paloaltonetworks.com/unit-42-threat-vector-podcast/) * LA Select your language