Search test library by skills or roles
⌘ K

About the test:

La prueba de Informatica evalúa la capacidad de un candidato para usar PowerCenter para ETL. Evalúa la capacidad de ejecutar tareas de sincronización/ replicación de datos, diseñar transformaciones de datos, administrar definiciones de origen/ objetivo y disputa de datos aplicando filtro, unión, agregado, clasificación, fusión y lógica de expresión sin escribir SQL.

Covered skills:

  • Almacenamiento de datos
  • Integración de datos
  • Se une a la base de datos
  • Parametrización
  • Sesiones y tareas
  • Extraer carga de transformación (ETL)
  • Operaciones de bases de datos relacionales CRUD
  • Maplades
  • Flujos de trabajo
  • Transformaciones

Try practice test
9 reasons why
9 reasons why

Adaface Prueba en línea de Informatica is the most accurate way to shortlist Desarrollador de informess



Reason #1

Tests for on-the-job skills

The Prueba en línea de Informatica helps recruiters and hiring managers identify qualified candidates from a pool of resumes, and helps in taking objective hiring decisions. It reduces the administrative overhead of interviewing too many candidates and saves time by filtering out unqualified candidates at the first step of the hiring process.

The test screens for the following skills that hiring managers look for in candidates:

  • Capacidad para diseñar e implementar soluciones de almacenamiento de datos
  • Capacidad para realizar operaciones de carga de transformación de extracto (ETL) en grandes conjuntos de datos
  • Competencia en la integración de varias fuentes de datos en una base de datos unificada
  • Habilidad para ejecutar operaciones de bases de datos relacionales CRUD
  • Capacidad para construir y optimizar las uniones de base de datos
  • Conocimiento al trabajar con Mapplets para la transformación de datos
  • Experiencia en parametrización de flujos de trabajo de datos
  • Competencia en la gestión de sesiones y tareas en un proceso de integración de datos
  • Competencia en el uso de varias transformaciones de datos
  • Capacidad para solucionar problemas y manejar errores en el procesamiento de datos
Reason #2

No trick questions

no trick questions

Traditional assessment tools use trick questions and puzzles for the screening, which creates a lot of frustration among candidates about having to go through irrelevant screening assessments.

View sample questions

The main reason we started Adaface is that traditional pre-employment assessment platforms are not a fair way for companies to evaluate candidates. At Adaface, our mission is to help companies find great candidates by assessing on-the-job skills required for a role.

Why we started Adaface
Try practice test
Reason #3

Non-googleable questions

We have a very high focus on the quality of questions that test for on-the-job skills. Every question is non-googleable and we have a very high bar for the level of subject matter experts we onboard to create these questions. We have crawlers to check if any of the questions are leaked online. If/ when a question gets leaked, we get an alert. We change the question for you & let you know.

How we design questions

Estas son solo una pequeña muestra de nuestra biblioteca de más de 10,000 preguntas. Las preguntas reales sobre esto Prueba en línea de Informatica no se puede obtener.

🧐 Question

Medium

Multi Select
JOIN
GROUP BY
Try practice test
Consider the following SQL table:
 image
How many rows does the following SQL query return?
 image

Medium

nth highest sales
Nested queries
User Defined Functions
Try practice test
Consider the following SQL table:
 image
Which of the following SQL commands will find the ‘nth highest Sales’ if it exists (returns null otherwise)?
 image

Medium

Select & IN
Nested queries
Try practice test
Consider the following SQL table:
 image
Which of the following SQL queries would return the year when neither a football or cricket winner was chosen?
 image

Medium

Sorting Ubers
Nested queries
Join
Comparison operators
Try practice test
Consider the following SQL table:
 image
What will be the first two tuples resulting from the following SQL command?
 image

Hard

With, AVG & SUM
MAX() MIN()
Aggregate functions
Try practice test
Consider the following SQL table:
 image
How many tuples does the following query return?
 image

Medium

Data Merging
Data Merging
Conditional Logic
Try practice test
A data engineer is tasked with merging and transforming data from two sources for a business analytics report. Source 1 is a SQL database 'Employee' with fields EmployeeID (int), Name (varchar), DepartmentID (int), and JoinDate (date). Source 2 is a CSV file 'Department' with fields DepartmentID (int), DepartmentName (varchar), and Budget (float). The objective is to create a summary table that lists EmployeeID, Name, DepartmentName, and YearsInCompany. The YearsInCompany should be calculated based on the JoinDate and the current date, rounded down to the nearest whole number. Consider the following initial SQL query:
 image
Which of the following modifications ensures accurate data transformation as per the requirements?
A: Change FLOOR to CEILING in the calculation of YearsInCompany.
B: Add WHERE e.JoinDate IS NOT NULL before the JOIN clause.
C: Replace JOIN with LEFT JOIN and use COALESCE(d.DepartmentName, 'Unknown').
D: Change the YearsInCompany calculation to YEAR(CURRENT_DATE) - YEAR(e.JoinDate).
E: Use DATEDIFF(YEAR, e.JoinDate, CURRENT_DATE) for YearsInCompany calculation.

Medium

Data Updates
Staging
Data Warehouse
Try practice test
Jaylo is hired as Data warehouse engineer at Affflex Inc. Jaylo is tasked with designing an ETL process for loading data from SQL server database into a large fact table. Here are the specifications of the system:
1. Orders data from SQL to be stored in fact table in the warehouse each day with prior day’s order data
2. Loading new data must take as less time as possible
3. Remove data that is more then 2 years old
4. Ensure the data loads correctly
5. Minimize record locking and impact on transaction log
Which of the following should be part of Jaylo’s ETL design?

A: Partition the destination fact table by date
B: Partition the destination fact table by customer
C: Insert new data directly into fact table
D: Delete old data directly from fact table
E: Use partition switching and staging table to load new data
F: Use partition switching and staging table to remove old data

Medium

SQL in ETL Process
SQL Code Interpretation
Data Transformation
SQL Functions
Try practice test
In an ETL process designed for a retail company, a complex SQL transformation is applied to the 'Sales' table. The 'Sales' table has fields SaleID, ProductID, Quantity, SaleDate, and Price. The goal is to generate a report that shows the total sales amount and average sale amount per product, aggregated monthly. The following SQL code snippet is used in the transformation step:
 image
What specific function does this SQL code perform in the context of the ETL process, and how does it contribute to the reporting goal?
A: The code calculates the total and average sales amount for each product annually.
B: It aggregates sales data by month and product, computing total and average sales amounts.
C: This query generates a daily breakdown of sales, both total and average, for each product.
D: The code is designed to identify the best-selling products on a monthly basis by sales amount.
E: It calculates the overall sales and average price per product, without considering the time dimension.

Medium

Trade Index
Index
Try practice test
Silverman Sachs is a trading firm and deals with daily trade data for various stocks. They have the following fact table in their data warehouse:
Table: Trades
Indexes: None
Columns: TradeID, TradeDate, Open, Close, High, Low, Volume
Here are three common queries that are run on the data:
 image
Dhavid Polomon is hired as an ETL Developer and is tasked with implementing an indexing strategy for the Trades fact table. Here are the specifications of the indexing strategy:

- All three common queries must use a columnstore index
- Minimize number of indexes
- Minimize size of indexes
Which of the following strategies should Dhavid pick:
A: Create three columnstore indexes: 
1. Containing TradeDate and Close
2. Containing TradeDate, High and Low
3. Container TradeDate and Volume
B: Create two columnstore indexes:
1. Containing TradeID, TradeDate, Volume and Close
2. Containing TradeID, TradeDate, High and Low
C: Create one columnstore index that contains TradeDate, Close, High, Low and Volume
D: Create one columnstore index that contains TradeID, Close, High, Low, Volume and Trade Date

Medium

Marketing Database
Columnar Storage
Data Warehousing
Analytical Queries
Try practice test
You are a data warehouse engineer at a marketing agency, managing a large-scale database that stores extensive data on customer interactions, campaign metrics, and market research. The database is used predominantly for complex analytical queries, such as segment analysis, trend identification, and campaign performance evaluation. These queries often involve aggregations, filtering, and joining over large datasets.

The existing setup, using traditional row-oriented storage, is struggling with performance issues, particularly for ad-hoc analytical queries that span multiple tables and require aggregating large volumes of data.

The main tables in the database are:

- Customer_Interactions (millions of rows): Stores individual customer interaction data.
- Campaign_Metrics (hundreds of thousands of rows): Contains detailed metrics for each marketing campaign.
- Market_Research (tens of thousands of rows): Holds market research data and findings.

Considering the nature of the queries and the structure of the data, which of the following changes would most effectively optimize the query performance for analytical purposes?
A: Normalize the database further by splitting large tables into smaller, more focused tables and creating indexes on frequently joined columns.
B: Implement an in-memory database system to facilitate faster data retrieval and processing.
C: Convert the database to use columnar storage, optimizing for the types of analytical queries performed in the marketing context.
D: Create a series of materialized views to pre-aggregate data for common query patterns.
E: Increase the hardware capacity of the server, focusing on faster CPUs and more RAM.
F: Implement partitioning on the main tables based on commonly filtered attributes, such as campaign IDs or time periods.

Medium

Multidimensional Data Modeling
Multidimensional Modeling
OLAP Operations
Data Warehouse Design
Try practice test
As a senior data warehouse engineer at a large retail company, you are tasked with designing a multidimensional data model to support complex OLAP (Online Analytical Processing) operations for retail analytics. The company operates in multiple countries and deals with a wide range of products. The primary requirement is to enable efficient analysis of sales performance across various dimensions such as time, geography, product categories, and sales channels.

The source data resides in a transactional system with the following tables:

- Transactions (Transaction_ID, Date, Store_ID, Product_ID, Quantity, Unit_Price)
- Stores (Store_ID, Store_Name, Country, Region)
- Products (Product_ID, Product_Name, Category, Supplier_ID)
- Suppliers (Supplier_ID, Supplier_Name, Country)

You need to design a schema in the data warehouse that facilitates fast querying for aggregations and comparisons along the mentioned dimensions. Which of the following schemas would best serve this purpose?
A: A star schema with a central fact table linking to dimension tables for Time, Store, Product, and Supplier.
B: A snowflake schema where dimension tables for Store, Product, and Supplier are normalized.
C: A galaxy schema with separate fact tables for Transactions, Inventory, and Supplier Orders, linked to shared dimension tables.
D: A flat schema combining all source tables into a single wide table to avoid joins during querying.
E: An OLTP-like normalized schema to maintain data integrity and minimize redundancy.
F: A hybrid schema using a star schema for frequently queried dimensions and a snowflake schema for less queried, more detailed dimensions.

Medium

Optimizing Query Performance
Query Optimization
Indexing Strategies
Data Partitioning
Try practice test
As a senior data warehouse developer, you are tasked with optimizing query performance in a large-scale data warehouse that primarily stores transactional data for a global retail company. The data warehouse is facing significant performance issues, particularly with certain types of queries that are crucial for business operations. After analysis, you identify that the most problematic queries are those that involve filtering and aggregating transaction data based on time periods (e.g., monthly sales) and specific product categories.

The main transaction table (Transactions) in the data warehouse has the following structure and characteristics:

- Columns: Transaction_ID (bigint), Transaction_Date (date), Product_ID (int), Quantity (int), Price (decimal), Category_ID (int)
- Row count: Approximately 2 billion rows
- Most common query pattern: Aggregating Quantity and Price by Category_ID and Transaction_Date (e.g., total sales per category per month)
- Current indexing: Primary key index on Transaction_ID, no other indexes

Based on this information, which of the following approaches would most effectively optimize the query performance for the given use case?
A: Add a non-clustered index on Transaction_Date and Category_ID.
B: Normalize the Transactions table by splitting Transaction_Date and Category_ID into separate dimension tables.
C: Implement partitioning on the Transactions table by Transaction_Date, and add a bitmap index on Category_ID.
D: Convert the Transactions table to use a columnar storage format.
E: Create a materialized view that pre-aggregates data by Category_ID and Transaction_Date.
F: Increase the hardware capacity of the data warehouse server, focusing on CPU and memory upgrades.
🧐 Question🔧 Skill

Medium

Multi Select
JOIN
GROUP BY

2 mins

SQL
Try practice test

Medium

nth highest sales
Nested queries
User Defined Functions

3 mins

SQL
Try practice test

Medium

Select & IN
Nested queries

3 mins

SQL
Try practice test

Medium

Sorting Ubers
Nested queries
Join
Comparison operators

3 mins

SQL
Try practice test

Hard

With, AVG & SUM
MAX() MIN()
Aggregate functions

2 mins

SQL
Try practice test

Medium

Data Merging
Data Merging
Conditional Logic

2 mins

ETL
Try practice test

Medium

Data Updates
Staging
Data Warehouse

2 mins

ETL
Try practice test

Medium

SQL in ETL Process
SQL Code Interpretation
Data Transformation
SQL Functions

3 mins

ETL
Try practice test

Medium

Trade Index
Index

3 mins

ETL
Try practice test

Medium

Marketing Database
Columnar Storage
Data Warehousing
Analytical Queries

2 mins

Data Warehouse
Try practice test

Medium

Multidimensional Data Modeling
Multidimensional Modeling
OLAP Operations
Data Warehouse Design

2 mins

Data Warehouse
Try practice test

Medium

Optimizing Query Performance
Query Optimization
Indexing Strategies
Data Partitioning

2 mins

Data Warehouse
Try practice test
🧐 Question🔧 Skill💪 Difficulty⌛ Time
Multi Select
JOIN
GROUP BY
SQL
Medium2 mins
Try practice test
nth highest sales
Nested queries
User Defined Functions
SQL
Medium3 mins
Try practice test
Select & IN
Nested queries
SQL
Medium3 mins
Try practice test
Sorting Ubers
Nested queries
Join
Comparison operators
SQL
Medium3 mins
Try practice test
With, AVG & SUM
MAX() MIN()
Aggregate functions
SQL
Hard2 mins
Try practice test
Data Merging
Data Merging
Conditional Logic
ETL
Medium2 mins
Try practice test
Data Updates
Staging
Data Warehouse
ETL
Medium2 mins
Try practice test
SQL in ETL Process
SQL Code Interpretation
Data Transformation
SQL Functions
ETL
Medium3 mins
Try practice test
Trade Index
Index
ETL
Medium3 mins
Try practice test
Marketing Database
Columnar Storage
Data Warehousing
Analytical Queries
Data Warehouse
Medium2 mins
Try practice test
Multidimensional Data Modeling
Multidimensional Modeling
OLAP Operations
Data Warehouse Design
Data Warehouse
Medium2 mins
Try practice test
Optimizing Query Performance
Query Optimization
Indexing Strategies
Data Partitioning
Data Warehouse
Medium2 mins
Try practice test
Reason #4

1200+ customers in 75 countries

customers in 75 countries
Brandon

Con Adaface, pudimos optimizar nuestro proceso de selección inicial en más de un 75 %, liberando un tiempo precioso tanto para los gerentes de contratación como para nuestro equipo de adquisición de talentos.


Brandon Lee, jefe de personas, Love, Bonito

Try practice test
Reason #5

Designed for elimination, not selection

The most important thing while implementing the pre-employment Prueba en línea de Informatica in your hiring process is that it is an elimination tool, not a selection tool. In other words: you want to use the test to eliminate the candidates who do poorly on the test, not to select the candidates who come out at the top. While they are super valuable, pre-employment tests do not paint the entire picture of a candidate’s abilities, knowledge, and motivations. Multiple easy questions are more predictive of a candidate's ability than fewer hard questions. Harder questions are often "trick" based questions, which do not provide any meaningful signal about the candidate's skillset.

Science behind Adaface tests
Reason #6

1 click candidate invites

Email invites: You can send candidates an email invite to the Prueba en línea de Informatica from your dashboard by entering their email address.

Public link: You can create a public link for each test that you can share with candidates.

API or integrations: You can invite candidates directly from your ATS by using our pre-built integrations with popular ATS systems or building a custom integration with your in-house ATS.

invite candidates
Reason #7

Detailed scorecards & benchmarks

Ver cuadro de mando de muestra
Try practice test
Reason #8

High completion rate

Adaface tests are conversational, low-stress, and take just 25-40 mins to complete.

This is why Adaface has the highest test-completion rate (86%), which is more than 2x better than traditional assessments.

test completion rate
Reason #9

Advanced Proctoring


Learn more

About the Prueba en línea de Informatica

Why you should use Prueba en línea de Informatica?

The Prueba en línea de Informatica makes use of scenario-based questions to test for on-the-job skills as opposed to theoretical knowledge, ensuring that candidates who do well on this screening test have the relavant skills. The questions are designed to covered following on-the-job aspects:

  • Conceptos y principios de almacenamiento de datos
  • Proceso de carga de transformación de extracción (ETL)
  • Técnicas de integración de datos y mejores prácticas
  • Operaciones de bases de datos relacionales CRUD
  • Tipos de unión de base de datos y optimización
  • Mapplets y su uso en Informatica PowerCenter
  • Parametrización para mejorar la flexibilidad en los procesos ETL
  • Creación y gestión del flujo de trabajo en Informatica PowerCenter
  • Configuraciones de sesiones y tareas en Informatica PowerCenter
  • Tipos de transformación y uso en procesos ETL

Once the test is sent to a candidate, the candidate receives a link in email to take the test. For each candidate, you will receive a detailed report with skills breakdown and benchmarks to shortlist the top candidates from your pool.

What topics are covered in the Prueba en línea de Informatica?

  • Almacenamiento de datos

    El almacenamiento de datos es el proceso de recopilación y gestión de datos de varias fuentes para apoyar la inteligencia y los informes empresariales. Implica diseñar e implementar un repositorio centralizado para almacenar grandes volúmenes de datos que se pueden consultar y analizar de manera eficiente. Esta habilidad se mide en la prueba para evaluar el conocimiento de los candidatos en la construcción y el mantenimiento de los almacenes de datos, lo cual es crucial para que las organizaciones tomen decisiones informadas basadas en ideas basadas en datos.

  • Extract Transform Load (ETL) </////// H4> <p> ETL es el proceso de extraer datos de varias fuentes, transformarlos en un formato consistente y cargarlo en un sistema de destino, típicamente un almacén de datos. Esta habilidad se evalúa en la prueba para evaluar la capacidad de los candidatos para manejar tareas complejas de integración de datos y garantizar que la calidad y la confiabilidad de los datos en el sistema de destino. </p> <h4> Integración de datos

    La integración de datos implica Combinando datos de múltiples fuentes, que pueden estructurarse o no estructurarse, para proporcionar una vista unificada para el análisis y los informes. La competencia de los candidatos en esta habilidad se mide en la prueba para medir su capacidad para integrar diversas fuentes de datos y garantizar la consistencia y precisión de los datos en toda la organización.

  • Operaciones de base de datos relacionales

    Operaciones Crud Consulte Crear, leer, actualizar y eliminar acciones realizadas en una base de datos relacional. Esta habilidad se evalúa en la prueba para evaluar la comprensión de los candidatos de la gestión de la base de datos y su capacidad para manipular datos utilizando declaraciones SQL. La competencia en las operaciones de CRUD es esencial para mantener y recuperar datos de manera eficiente de bases de datos relacionales.

  • Las uniones de base de datos

    se utilizan uniones de base de datos para combinar datos de múltiples tablas basadas en campos o claves comunes. Esta habilidad se mide en la prueba para determinar la experiencia de los candidatos en la construcción de consultas SQL complejas que involucran diferentes tipos de uniones, como unión interna, unión externa y unión cruzada. La competencia en las uniones de bases de datos es esencial para recuperar y analizar datos de bases de datos relacionales de manera eficiente.

  • Mapplets

    Los mapplets son componentes de mapeo reutilizables en Informatica PowerCenter, que permiten a los desarrolladores definir y almacenar transformaciones comunes que se puede llamar desde mapeos múltiples. Esta habilidad se evalúa en la prueba para evaluar el conocimiento de los candidatos sobre la creación, configuración y uso del mapplete, así como su comprensión de las transformaciones de datos y los principios de diseño de mapeo. es el proceso de hacer componentes de mapeo dinámicos y configurables mediante el uso de parámetros. Esta habilidad se mide en la prueba para evaluar la capacidad de los candidatos para diseñar asignaciones que puedan adaptarse a diferentes escenarios de tiempo de ejecución parametrizando varias propiedades y valores. La competencia en la parametrización ayuda a crear mapeos flexibles y reutilizables en Informatica PowerCenter.

  • Flujos de trabajo, sesiones y tareas

    flujos de trabajo, sesiones y tareas son bloques de construcción de Informatica PowerCenter que permiten a los desarrolladores a los desarrolladores a Crear y administrar procesos complejos de integración de datos. Esta habilidad se evalúa en la prueba para evaluar la comprensión de los candidatos sobre el diseño del flujo de trabajo, la configuración de la sesión y las dependencias de tareas. La competencia en el trabajo con flujos de trabajo, sesiones y tareas es esencial para orquestar de manera efectiva los procesos de integración de datos en Informatica PowerCenter.

  • Las transformaciones

    las transformaciones en Informatica PowerCenter se utilizan para manipular, validar y agregar y agregar datos durante el proceso ETL. Esta habilidad se mide en la prueba para determinar el conocimiento y la experiencia de los candidatos en diferentes tipos de transformaciones, como agregador, expresión, búsqueda y filtro. La competencia en las transformaciones es crucial para la limpieza de datos, enriquecimiento e integración en proyectos de almacenamiento de datos.

  • Full list of covered topics

    The actual topics of the questions in the final test will depend on your job description and requirements. However, here's a list of topics you can expect the questions for Prueba en línea de Informatica to be based on.

    Modelado de datos
    Modelado dimensional
    Esquema de estrella
    Esquema de copo de nieve
    Mesa de hechos
    Tabla de dimensión
    Proceso ETL
    Análisis del sistema de origen
    Perfil de datos
    Limpieza de datos
    Transformación de datos
    Integración de datos
    Carga de datos
    Llaves sustitutas
    Cargas incrementales
    Cambiar la captura de datos
    Dimensiones cambiantes lentamente
    Gestión de metadatos
    Base de datos relacional
    Operaciones SQL
    Operaciones CRUD
    Se une a la base de datos
    Unir internamente
    Unión exterior
    Se unió a la izquierda
    Juego correcto
    Unión externa completa
    Unión cruzada
    Uno mismo
    Transformaciones agregadas
    Transformación de carpintería
    Transformación de filtro
    Transformación de la expresión
    Transformación del enrutador
    Transformación de búsqueda
    Transformación de fusiones
    Transformación normalizador
    Transformación de rango
    Transformación del generador de secuencia
    Transformación del agregador
    Transformación sindical
    Transformación de clasificación
    Transformación del enrutador
    Transformaciones condicionales
    Transformaciones reutilizables
    Lenguaje de expresión
    Diseño de flujo de trabajo
    Dependencia de tareas
    Propiedades de la sesión
    Archivo de parámetros
    Sesiones y tareas Monitoreo
    Manejo de errores
    Programación del flujo de trabajo
    Arquitectura del almacén de datos
Try practice test

What roles can I use the Prueba en línea de Informatica for?

  • Desarrollador de informes
  • Desarrollador senior de informática
  • Arquitecto informático
  • Desarrollador de integración de datos (Informatica)
  • Ingeniero de software (Informatica)
  • Ingeniero de datos (Informatica)
  • Desarrollador de Informatica ETL
  • Informatica BI Consultor

How is the Prueba en línea de Informatica customized for senior candidates?

For intermediate/ experienced candidates, we customize the assessment questions to include advanced topics and increase the difficulty level of the questions. This might include adding questions on topics like

  • Gestión de la calidad de los datos y técnicas de limpieza
  • Manejo de errores y gestión de excepciones en procesos ETL
  • Optimización y ajuste del rendimiento para los procesos ETL
  • Integración y transmisión de datos en tiempo real
  • Cambiar técnicas de captura de datos (CDC)
  • Estrategias de validación y prueba de datos
  • Análisis de gestión de metadatos e impacto
  • Conceptos de modelado dimensional para almacenamiento de datos
  • Estrategias de indexación de bases de datos y optimización de consultas
  • Scripting y automatización en Informatica PowerCenter
Singapore government logo

Los gerentes de contratación sintieron que a través de las preguntas técnicas que hicieron durante las entrevistas del panel, pudieron decir qué candidatos tenían mejores puntajes y diferenciarse de aquellos que no obtuvieron tan buenos puntajes. Ellos son altamente satisfecho con la calidad de los candidatos preseleccionados con la selección de Adaface.


85%
Reducción en el tiempo de detección

Prueba en línea de Informatica Preguntas frecuentes

¿Puedo evaluar otras habilidades relevantes como ETL, SQL en la misma prueba?

Sí. Apoyamos la detección de múltiples habilidades en una sola prueba. Puede revisar nuestra prueba SQL estándar y [prueba ETL estándar](https://www.adaface.com/assessment-test /ETL-online-test) para comprender qué tipo de preguntas usamos para evaluar las habilidades SQL y ETL. Una vez que se registre para cualquier plan, puede solicitar una evaluación personalizada que se personalice a la descripción de su trabajo. La evaluación personalizada incluirá preguntas para todas las habilidades imprescindibles requeridas para su papel informático.

¿Puedo combinar múltiples habilidades en una evaluación personalizada?

Si, absolutamente. Las evaluaciones personalizadas se configuran en función de la descripción de su trabajo e incluirán preguntas sobre todas las habilidades imprescindibles que especifique.

¿Tiene alguna característica anti-trato o procuración en su lugar?

Tenemos las siguientes características anti-trate en su lugar:

  • Preguntas no postradas
  • Procuración de IP
  • Procedor web
  • Procedores de cámara web
  • Detección de plagio
  • navegador seguro

Lea más sobre las funciones de procuración.

¿Cómo interpreto los puntajes de las pruebas?

Lo principal a tener en cuenta es que una evaluación es una herramienta de eliminación, no una herramienta de selección. Una evaluación de habilidades está optimizada para ayudarlo a eliminar a los candidatos que no están técnicamente calificados para el rol, no está optimizado para ayudarlo a encontrar el mejor candidato para el papel. Por lo tanto, la forma ideal de usar una evaluación es decidir un puntaje umbral (generalmente del 55%, lo ayudamos a comparar) e invitar a todos los candidatos que obtienen un puntaje por encima del umbral para las próximas rondas de la entrevista.

¿Para qué nivel de experiencia puedo usar esta prueba?

Cada evaluación de AdaFace está personalizada para su descripción de trabajo/ persona candidata ideal (nuestros expertos en la materia elegirán las preguntas correctas para su evaluación de nuestra biblioteca de más de 10000 preguntas). Esta evaluación se puede personalizar para cualquier nivel de experiencia.

¿Cada candidato tiene las mismas preguntas?

Sí, te hace mucho más fácil comparar los candidatos. Las opciones para las preguntas de MCQ y el orden de las preguntas son aleatorizados. Tenemos características anti-trato/procuración en su lugar. En nuestro plan empresarial, también tenemos la opción de crear múltiples versiones de la misma evaluación con cuestiones de niveles de dificultad similares.

Soy candidato. ¿Puedo probar una prueba de práctica?

No. Desafortunadamente, no apoyamos las pruebas de práctica en este momento. Sin embargo, puede usar nuestras preguntas de muestra para la práctica.

¿Cuál es el costo de usar esta prueba?

Puede consultar nuestros planes de precios.

¿Puedo obtener una prueba gratuita?

Sí, puede registrarse gratis y previsualice esta prueba.

Me acabo de mudar a un plan pagado. ¿Cómo puedo solicitar una evaluación personalizada?

Aquí hay una guía rápida sobre cómo solicitar una evaluación personalizada en Adaface.

customers across world
Join 1200+ companies in 75+ countries.
Pruebe la herramienta de evaluación de habilidades más amigables para los candidatos hoy en día.
g2 badges
Ready to use the Adaface Prueba en línea de Informatica?
Ready to use the Adaface Prueba en línea de Informatica?
habla con nosotros
ada
Ada
● Online
✖️