UNIVERSIDAD TECNOLÓGICA DEL PACÍFICO


Asignatura: Aplicaciones para Realidad Aumentada

Unidad III: Despliegue y publicación de aplicaciones

Portafolio Digital de Evidencias — Proyecto de RA

Alumno: ___________________________ · Cuatrimestre: _______

Documento del Proyecto

Objetivo del Proyecto

Desarrollar una aplicación móvil de Realidad Aumentada (RA) que permita a los estudiantes de la Universidad Tecnológica del Pacífico explorar e interactuar con modelos 3D de elementos arquitectónicos y científicos mediante sus dispositivos móviles, mejorando la experiencia de aprendizaje en el campus universitario.

Justificación

Problemática a resolver: Los estudiantes tienen dificultades para comprender conceptos abstractos en materias como arquitectura, biología y química, que requieren la visualización tridimensional de estructuras complejas. Los materiales didácticos tradicionales (libros, diapositivas) no ofrecen la interactividad necesaria.

Audiencia: Estudiantes y profesores de la Universidad Tecnológica del Pacífico, particularmente de las carreras de Ingeniería, Arquitectura y Ciencias.

Justificación: La Realidad Aumentada permite superponer objetos digitales 3D sobre el mundo real, brindando una experiencia inmersiva que facilita la comprensión de conceptos complejos. La implementación de esta tecnología en el ámbito educativo ha demostrado incrementar la retención de información hasta en un 40% (según estudios de la Universidad de Maryland, 2018).

Alcance del Proyecto

Arquitectura del Diseño

Motor de Desarrollo

Unity 2022 LTS con AR Foundation

Framework multiplataforma para RA con soporte para ARCore (Android) y ARKit (iOS).

SDK de RA

Vuforia Engine 10.x

SDK para reconocimiento de imágenes/marcadores con tracking robusto y base de datos de targets en la nube.

Modelos 3D

Blender 3.6 + Sketchfab

Modelado y texturizado de objetos 3D. Exportación en formato .fbx y .glb para Unity.

Escenas y Secuencias de la Aplicación

Prototipo de la Aplicacion AR

UTP AR Explorer

Realidad Aumentada Educativa

Inicio

Bienvenida y acceso rápido a las escenas de RA

Escanear

Cámara AR con detección de marcadores

Catalogo

Listado de modelos 3D disponibles

Acerca de

Información del proyecto y créditos

Estructura de Pantallas

Splash Screen

Duración: 3 segundos

Logo de la UTP con animación fade-in. Nombre de la app "UTP AR Explorer". Barra de carga con progreso visual.

Pantalla de Inicio

Elementos:

Bienvenida al usuario, botón "Escanear Marcador" (acceso a cámara AR), acceso rápido a las 5 escenas, indicador de conexión a internet.

Menu Principal

Opciones:

Inicio, Escanear (Cámara AR), Catálogo de Modelos, Historial, Acerca de, Ayuda. Navegación tipo bottom tab bar.

Acerca de

Información del proyecto, versión de la app, créditos del equipo de desarrollo, logo de la universidad, enlace a la página institucional.

Ayuda

Tutorial interactivo de uso, instrucciones para escanear marcadores, preguntas frecuentes (FAQ), solución de problemas comunes.

5 Escenas de Realidad Aumentada

Escena 1: Modelo Arquitectónico — Edificio Principal UTP

Modelo 3D a escala del edificio principal. El usuario puede rotar, escalar y explorar con gestos táctiles. Incluye etiquetas informativas en cada sección del edificio.

Multimedia: Modelo 3D (.fbx) + Audio narración + Etiquetas 2D

Escena 2: Sistema Solar Interactivo

Modelo 3D de los planetas con órbitas animadas. Al tocar cada planeta se muestra información, imagen en alta resolución y un video corto con datos curiosos.

Multimedia: 8 Modelos 3D + Video (MP4) + Imágenes 2D + Audio

Escena 3: Célula Humana

Modelo 3D detallado de una célula eucariota. Se pueden separar los organelos y ver información individual de cada uno (mitocondria, núcleo, ribosomas, etc.).

Multimedia: Modelo 3D con partes separables + Audio + Texto informativo

Escena 4: Motor de Combustión Interna

Motor 3D animado que muestra los 4 tiempos del ciclo Otto. Animación paso a paso con narración en audio y etiquetas de cada componente.

Multimedia: Modelo 3D animado + Video explicativo + Audio narración

Escena 5: Circuito Electrónico Básico

Representación 3D de un circuito con LED, resistencia, capacitor y fuente de energía. Animación del flujo de corriente eléctrica con partículas.

Multimedia: Modelo 3D + Animación de partículas + Audio + Imagen 2D del diagrama

Tema 1: Integración de objetos y modelos digitales

Actividad 1 — Proceso de integración de elementos digitales

El proceso de integración de modelos 2D, 3D, audio y video en la aplicación de RA sigue una secuencia específica para cada tipo de elemento:

Modelos 3D

1
Modelado: Se crean o descargan modelos 3D en Blender. Se optimiza la geometría (reducción de polígonos) para rendimiento móvil. Máximo 50,000 polígonos por modelo.
2
Texturizado: Se aplican texturas UV mapeadas. Se comprimen a máximo 1024x1024 px en formato PNG/JPG. Se configuran materiales con shaders optimizados para móvil (Mobile/Unlit o URP Lit).
3
Exportación: Se exporta en formato .FBX (para Unity) o .GLB/.GLTF (estándar web). Se verifican escala, rotación y punto de pivote.
4
Importación a Unity: Se importa al proyecto y se configura en la escena AR. Se ajustan posición (x, y, z respecto al marcador), tamaño (escala relativa 0.1 a 1.0) y orientación (rotación en los 3 ejes según la perspectiva deseada).

Imágenes 2D

Audio

Video

Configuración según el dispositivo

ParámetroSmartphoneTablet
Escala base del modelo0.3 - 0.50.5 - 0.8
Distancia de tracking30 - 100 cm40 - 150 cm
Max polígonos50,000100,000
Resolución texturas512x5121024x1024
FPS objetivo30 fps30-60 fps

Tema 2: Interacción del usuario en realidad aumentada

Actividad 2 — Proceso de interacción con objetos digitales

Tipos de Interacción

Posicion

El objeto se posiciona en el espacio 3D real usando coordenadas relativas al marcador detectado o a un plano horizontal/vertical. Se usa ARRaycastManager para detectar superficies y anclar objetos.

Gestos (Gestures)

Tap: Seleccionar objeto / mostrar info.
Drag: Mover objeto en el plano.
Pinch: Escalar (zoom in/out).
Rotate: Dos dedos para rotar.

Superficie

Detección de planos horizontales (mesas, pisos) y verticales (paredes) usando ARPlaneManager. Los objetos se anclan a superficies detectadas manteniendo su posición en el mundo real.

Localizacion

Uso de GPS + brújula para experiencias de RA geolocalizadas. Activación de contenido AR según la ubicación física del usuario en el campus (geo-anchors).

Instrucciones y Sintaxis en Programación de RA (Unity + C#)

Detección de planos y colocación de objetos

// ARRaycastManager para detectar superficies
ARRaycastManager raycastManager;
List<ARRaycastHit> hits = new List<ARRaycastHit>();

void Update() {
    if (Input.touchCount > 0) {
        Touch touch = Input.GetTouch(0);
        if (touch.phase == TouchPhase.Began) {
            if (raycastManager.Raycast(touch.position, hits,
                TrackableTypes.PlaneWithinPolygon)) {
                Pose hitPose = hits[0].pose;
                // Instanciar modelo 3D en la posición detectada
                Instantiate(prefabModelo, hitPose.position,
                    hitPose.rotation);
            }
        }
    }
}

Gestos: Escalar con Pinch

// Escalar objeto con gesto de pinch (dos dedos)
void HandlePinchScale() {
    if (Input.touchCount == 2) {
        Touch t0 = Input.GetTouch(0);
        Touch t1 = Input.GetTouch(1);

        float prevDist = (
            (t0.position - t0.deltaPosition) -
            (t1.position - t1.deltaPosition)
        ).magnitude;
        float currDist = (t0.position - t1.position).magnitude;

        float scaleFactor = currDist / prevDist;
        transform.localScale *= scaleFactor;

        // Limitar escala mínima y máxima
        float clampedScale = Mathf.Clamp(
            transform.localScale.x, 0.1f, 3.0f);
        transform.localScale = Vector3.one * clampedScale;
    }
}

Reconocimiento de imagen / marcador (Vuforia)

// Listener para cuando se detecta un marcador
public class MarkerHandler :
    MonoBehaviour, ITrackableEventHandler
{
    void OnTrackingFound() {
        // Activar modelo 3D y multimedia
        modelo3D.SetActive(true);
        audioSource.Play();
        // Ajustar posición relativa al marcador
        modelo3D.transform.localPosition =
            new Vector3(0, 0.1f, 0); // 10cm arriba
        modelo3D.transform.localScale =
            Vector3.one * 0.5f; // 50% escala
    }

    void OnTrackingLost() {
        // Desactivar al perder el tracking
        modelo3D.SetActive(false);
        audioSource.Stop();
    }
}

Rotación con gesto de dos dedos

// Rotar objeto con gesto de rotación
void HandleTwoFingerRotation() {
    if (Input.touchCount == 2) {
        Touch t0 = Input.GetTouch(0);
        Touch t1 = Input.GetTouch(1);

        Vector2 prevDir = (t0.position - t0.deltaPosition)
            - (t1.position - t1.deltaPosition);
        Vector2 currDir = t0.position - t1.position;

        float angle = Vector2.SignedAngle(prevDir, currDir);
        transform.Rotate(Vector3.up, angle);
    }
}

Tema 3: Publicación de aplicaciones

Actividad 3 — Plataformas y proceso de publicación

Plataformas que soportan Realidad Aumentada

PlataformaSDK/FrameworkRequisito del DispositivoTienda de Apps
Android ARCore (Google) Android 7.0+, procesador compatible con ARCore Google Play Store
iOS ARKit (Apple) iPhone 6s+, iPad Pro+, iOS 11+ App Store
Web (WebXR) AR.js / Three.js / 8th Wall Navegador compatible con WebXR (Chrome, Safari) URL directa (sin tienda)
HoloLens Mixed Reality Toolkit (MRTK) Microsoft HoloLens 2 Microsoft Store
Meta Quest Passthrough API + Unity Meta Quest 3 / Quest Pro Meta Quest Store
Snapchat Lens Studio Smartphone con Snapchat instalado Snapchat Lens Explorer
Instagram/Facebook Spark AR Studio (Meta) Smartphone con Instagram/Facebook Spark AR Hub

Proceso de Despliegue y Publicación

Publicación en Google Play Store (Android)

1
Preparación del Build: En Unity: File → Build Settings → Android. Configurar Player Settings: nombre del paquete (com.utp.arexplorer), versión, API mínima (Android 7.0), target API, íconos y splash screen.
2
Firma del APK/AAB: Crear un keystore (.jks) para firmar la aplicación. Generar un Android App Bundle (.aab) firmado. La firma digital garantiza la autenticidad de la app.
3
Google Play Console: Crear cuenta de desarrollador ($25 USD, pago único). Crear nueva aplicación, completar ficha de la tienda: título, descripción, capturas de pantalla, categoría, clasificación de contenido.
4
Subir el Bundle: En Producción → Crear nueva versión. Subir el archivo .aab. Completar las notas de la versión.
5
Revisión y Publicación: Google revisa la app (1-7 días). Si cumple con las políticas, se publica automáticamente. Se puede usar testing interno/cerrado antes de la publicación abierta.

Publicación en App Store (iOS)

1
Requisitos: Mac con Xcode instalado. Apple Developer Program ($99 USD/año). Certificado de distribución y perfil de aprovisionamiento.
2
Build desde Xcode: Unity exporta un proyecto Xcode. Se compila, firma y sube via Xcode o Transporter.
3
App Store Connect: Completar la ficha de la app, subir screenshots, configurar precios y disponibilidad. Enviar a revisión de Apple (1-3 días).

Distribución Interna (APK directo)

Para el ámbito académico, una alternativa práctica es la distribución directa del APK:

Reporte Técnico del Proceso de Implementación

Herramientas Utilizadas

HerramientaVersiónPropósito
Unity2022.3 LTSMotor de desarrollo principal
AR Foundation5.1Framework de RA multiplataforma
Vuforia Engine10.18Reconocimiento de marcadores
Blender3.6Modelado y texturizado 3D
Visual Studio2022Editor de código C#
Android SDK33+Compilación para Android
FigmaWebDiseño de UI/UX
Audacity3.4Edición de audio

Proceso de Desarrollo

  1. Planificación: Definición de escenas, modelos y flujo de navegación. Creación de wireframes en Figma.
  2. Configuración del proyecto: Nuevo proyecto Unity con URP. Instalación de AR Foundation, ARCore XR Plugin y Vuforia.
  3. Creación de marcadores: Diseño de 5 marcadores impresos. Registro en la base de datos de Vuforia (rating mínimo 4/5 estrellas).
  4. Modelado 3D: Creación/adaptación de los 5 modelos principales en Blender. Optimización de polígonos y texturas.
  5. Desarrollo de escenas: Implementación de cada escena AR con su lógica de interacción, multimedia y UI.
  6. Implementación de gestos: Programación de tap, drag, pinch y rotate usando el sistema de input de Unity.
  7. Integración multimedia: Adición de audio (narración + efectos), video (clips informativos) e imágenes 2D (etiquetas).
  8. Testing: Pruebas en dispositivos físicos Android. Verificación de tracking, rendimiento (30+ fps) y usabilidad.
  9. Build y distribución: Generación del APK firmado. Distribución via enlace de descarga.

Elementos Multimedia Integrados

TipoCantidadFormatoDescripción
Modelos 3D12.fbx5 modelos principales + 7 sub-modelos (planetas, organelos)
Imágenes 2D15.pngEtiquetas informativas, diagramas, íconos de UI
Audio8.ogg5 narraciones + 3 efectos de sonido
Video3.mp4Clips informativos de 30-60 segundos
Animaciones5Unity AnimÓrbitas planetarias, ciclo del motor, flujo de corriente

Conclusión

El desarrollo del proyecto de Realidad Aumentada permitió integrar conocimientos de modelado 3D, programación en C#, diseño de interfaces móviles y procesos de publicación de aplicaciones. La experiencia de crear una aplicación AR funcional desde cero demostró el potencial de esta tecnología en el ámbito educativo.

Los principales aprendizajes incluyen: la importancia de optimizar modelos 3D para dispositivos móviles, el manejo de interacciones táctiles (gestos) para una experiencia de usuario intuitiva, la correcta integración de elementos multimedia (audio, video, imágenes) en entornos AR, y el conocimiento del proceso completo de publicación en las diferentes plataformas.

La aplicación "UTP AR Explorer" representa un paso hacia la modernización de los métodos de enseñanza en la universidad, demostrando que la Realidad Aumentada puede ser una herramienta accesible y efectiva para mejorar el aprendizaje.

Probar la Aplicacion AR

Abre la app UTP AR Explorer directamente en tu navegador. En Android puedes instalarla como aplicacion nativa desde Chrome.

Abrir UTP AR Explorer

Compatible con Android (Chrome) — PWA instalable

Bibliografía

Azuma, R. T. (1997). A Survey of Augmented Reality. Presence: Teleoperators and Virtual Environments, 6(4), 355-385.

Artículo fundacional que define los principios y taxonomía de la Realidad Aumentada.

Unity Technologies. (2026). AR Foundation Documentation.

Documentación oficial de AR Foundation para desarrollo de aplicaciones de RA multiplataforma. docs.unity3d.com

Google. (2026). ARCore Developer Documentation.

Documentación del SDK de RA de Google para Android. developers.google.com/ar

Vuforia. (2026). Vuforia Engine Developer Library.

Documentación del SDK de reconocimiento de imágenes Vuforia. library.vuforia.com

Linowes, J. & Babilinski, K. (2020). Augmented Reality for Developers. Packt Publishing.

Guía práctica para desarrolladores sobre implementación de aplicaciones de RA con Unity y ARCore/ARKit.

Google Play Console. (2026). Publish your app.

Guía oficial para publicar aplicaciones en Google Play Store. support.google.com