Search test library by skills or roles
⌘ K

About the test:

O teste do engenheiro de confiabilidade do site (SRE) usa perguntas baseadas em cenário para avaliar o conhecimento das tecnologias em nuvem, design do sistema, automação e habilidades de solução de problemas. Avalia a compreensão da infraestrutura como código, integração e implantação contínua e sistemas de monitoramento. O teste também mede proficiência em linguagens de script e codificação prática para solução de problemas de infraestrutura. Além disso, inclui situações do mundo real para examinar o pensamento crítico e as habilidades de gerenciamento de incidentes.

Covered skills:

  • Design e arquitetura do sistema
  • Integração contínua/implantação contínua (IC/CD)
  • Sistemas de monitoramento e log
  • Ajuste de desempenho e balanceamento de carga
  • Entendimento dos princípios de segurança
  • Microsserviços e contêinerização
  • Gerenciamento de tráfego e sistemas distribuídos
  • Planejamento de capacidade e otimização de recursos
  • Infraestrutura como Código (IAC)
  • Compreensão dos conceitos de rede
  • Gerenciamento de incidentes e análise post mortem
  • Confiabilidade e escalabilidade do banco de dados
  • Planejamento e execução de recuperação de desastres
  • Objetivos do nível de serviço (SLOs) e orçamentos de erro
  • Alta disponibilidade e estratégias de resiliência

9 reasons why
9 reasons why

Adaface Site Reliability Assessment Test is the most accurate way to shortlist Engenheiro de Confiabilidade do Site (SRE)s



Reason #1

Tests for on-the-job skills

The Site Reliability Test helps recruiters and hiring managers identify qualified candidates from a pool of resumes, and helps in taking objective hiring decisions. It reduces the administrative overhead of interviewing too many candidates and saves time by filtering out unqualified candidates at the first step of the hiring process.

The test screens for the following skills that hiring managers look for in candidates:

  • Proficiente em práticas e princípios de engenharia de confiabilidade do local
  • Experiência em metodologias e ferramentas do DevOps
  • Conhecimento da contêinerização do docker
  • Entendendo a orquestração de Kubernetes
  • Capacidade de projetar sistemas e arquiteturas robustos
  • Familiaridade com a infraestrutura como conceitos de código (IAC)
  • Especialização em pipelines de integração contínua/implantação contínua (CI/CD)
  • Compreensão dos conceitos de rede em sistemas distribuídos
  • Habilidade na implementação de sistemas de monitoramento e log
  • Proficiente em gerenciamento de incidentes e análise post-mortem
  • Experiência em ajuste de desempenho e balanceamento de carga
  • Experiência em garantir a confiabilidade e escalabilidade do banco de dados
  • Conhecimento dos princípios de segurança no design do sistema
  • Familiaridade com o planejamento e execução de recuperação de desastres
  • Compreensão de microsserviços e contêinerização
  • Habilidade na definição de objetivos de nível de serviço (SLOs) e orçamentos de erro
  • Conhecimento de gerenciamento de tráfego e sistemas distribuídos
  • Especialização em estratégias de alta disponibilidade e resiliência
  • Capacidade de realizar planejamento de capacidade e otimização de recursos
Reason #2

No trick questions

no trick questions

Traditional assessment tools use trick questions and puzzles for the screening, which creates a lot of frustration among candidates about having to go through irrelevant screening assessments.

View sample questions

The main reason we started Adaface is that traditional pre-employment assessment platforms are not a fair way for companies to evaluate candidates. At Adaface, our mission is to help companies find great candidates by assessing on-the-job skills required for a role.

Why we started Adaface
Reason #3

Non-googleable questions

We have a very high focus on the quality of questions that test for on-the-job skills. Every question is non-googleable and we have a very high bar for the level of subject matter experts we onboard to create these questions. We have crawlers to check if any of the questions are leaked online. If/ when a question gets leaked, we get an alert. We change the question for you & let you know.

How we design questions

Estes são apenas uma pequena amostra da nossa biblioteca de mais de 10.000 perguntas. As perguntas reais sobre isso Teste de confiabilidade do site será não-googleable.

🧐 Question

Medium

Error Budget Management
Latency Monitoring
Error Budgets
Distributed Tracing
Solve
You are a site reliability engineer responsible for maintaining a microservices-based e-commerce platform. Your system consists of several independent services, each deployed on its separate container within a Kubernetes cluster.

Your organization follows a strict Service Level Objective (SLO) to maintain user satisfaction, which mandates that the 95th percentile latency for all requests over a 30-day period should not exceed 200 ms.

The following pseudo-code represents a simplified version of the request processing in your system:
 image
You realize that over the first two weeks of the current 30-day window, the 95th percentile latency has risen to 250 ms. Analyzing further, you discover that out of 10 million requests, 600,000 requests took more than 200 ms to complete.

Given these facts, which of the following is the most effective course of action that you can take to troubleshoot and reduce the system's latency issues?
A: Change the latency log level to debug to gather more information.
B: Increase the SLO for latency to 250 ms to accommodate the current system performance.
C: Introduce more instances of each microservice to handle the increased load.
D: Implement a distributed tracing mechanism to identify the microservices contributing most to the latency.
E: Implement request throttling to reduce the overall number of requests.

Medium

Incident Response Procedure
Incident Management
Disaster Recovery
System Optimization
Solve
You are an SRE for a large-scale distributed system. The system architecture includes five primary servers (P1 to P5) and three backup servers (B1 to B3). The system uses an advanced load balancer that distributes the workload across the primary servers evenly. 

One day, the monitoring system triggers an alert that server P5 is not responding. The pseudo-code for the current incident response procedure is as follows:
 image
The function 'replaceServer(server)' replaces the failed server with a new one from a pool of spare servers, which takes around 30 minutes. 

The current discussion revolves around modifying this procedure to improve system resilience and minimize potential downtime. The backup servers are underutilized and could be leveraged more effectively. Also, the load balancer can dynamically shift workloads based on server availability and response time.

Based on the situation above, what is the best approach to optimize the incident response procedure?
A: Implement an early warning system to predict server failures and prevent them.
B: Upon failure detection, immediately divert traffic to backup servers, then attempt to reboot the primary server, and replace if necessary.
C: Replace the failed server without attempting a reboot and keep the traffic on primary servers.
D: Enable auto-scaling to add more servers when a primary server fails.
E: Switch to a more advanced load balancer that can detect and handle server failures independently.

Medium

Service Balancer Decision-making
Load Balancing
Distributed Systems
Concurrent Processing
Solve
You are a Site Reliability Engineer (SRE) working on a distributed system with a load balancer that distributes requests across a number of servers based on the current load. The decision algorithm for load balancing is written in pseudo-code as follows:
 image
The system receives a large burst of requests. In response to this, some engineers propose increasing the `threshold` value to allow for more requests to be handled concurrently by each server. Others argue that instead, we should increase the number of servers to distribute the load more evenly. 

Consider that the system has auto-scaling capabilities based on the average load of all servers, but the scaling operation takes about 15 minutes to add new servers to the pool. Also, the servers' performance degrades sharply if the load is much above the threshold.

One of the engineers also proposes modifying the getServer function logic to distribute the incoming load one by one across all servers to trigger the average load to rise faster.

Based on this scenario, what is the best approach?
A: Increase the `threshold` value to allow more requests on each server.
B: Add more servers to distribute the load, regardless of the auto-scaling delay.
C: Modify the getServer function to distribute the incoming load one by one across all servers to trigger the average load to rise faster.
D: Increase the `threshold` and add more servers simultaneously.
E: Manually trigger the auto-scaling process before the load increases.

Medium

Resource Analysis
Process Management
System Performance
Log Analysis
Solve
As a senior DevOps engineer, you are tasked with diagnosing performance issues on a Linux server running Ubuntu 20.04. The server hosts several critical applications, but lately, users have been experiencing significant slowness. Initial monitoring shows that CPU and memory utilization are consistently high. To identify the root cause, you check the output of `top` and `ps` commands, which indicate that a particular process is consuming an unusually high amount of resources. However, the process name is generic and does not clearly indicate which application or service it belongs to. You also examine `/var/log/syslog` for any unusual entries but find nothing out of the ordinary. Based on this situation, which of the following steps would most effectively help you identify and resolve the performance issue?
A: Increase the server's physical memory and CPU capacity.
B: Use the `lsof` command to identify the files opened by the suspect process.
C: Reboot the server to reset all processes.
D: Examine the `/etc/hosts` file for any incorrect configurations.
E: Run the `netstat` command to check for abnormal network activity.
F: Check the crontab for any recently added scheduled tasks.

Medium

Streamlined DevOps
Continuous Integration
Scripting
Solve
You are in charge of developing a Bash script for setting up a continuous integration pipeline for a web application. The source code is hosted in a Git repository. The script's goals include:

1. Ensuring the local copy of the repository in /var/www/html is updated to the latest version.
2. Creating a .env file with APP_ENV=production in the project root if it doesn't already exist.
3. Running a test suite with ./run_tests.sh and handling any test failures appropriately.
4. Logging the current timestamp and commit hash in deployment_log.txt in the project root if tests pass.

Which of the following script options would most effectively and safely accomplish these tasks?
 image

Medium

Docker Multistage Build Analysis
Multistage Builds
Optimization
Solve
Consider the following Dockerfile, which utilizes multistage builds. The aim is to build a lightweight, optimized image that just runs the application.
 image
The Dockerfile first defines a base image that includes Node.js and npm, then it creates an intermediate image to install the npm dependencies. Afterwards, it runs the tests in another stage and finally, creates the release image.

Which of the following statements are true?

A: The final image will include the test scripts.
B: If a test fails, the final image will not be created.
C: The node_modules directory in the final image comes from the base image.
D: The final image will only contain the necessary application files and dependencies.
E: If the application's source code changes, only the release stage needs to be rebuilt.

Easy

Docker Networking and Volume Mounting Interplay
Networking
Volume Mounting
Solve
You have two docker containers, X and Y. Container X is running a web service listening on port 8080, and container Y is supposed to consume this service. Both containers are created from images that don't have any special network configurations.

Container X has a Dockerfile as follows:
 image
And, you build and run it with the following commands:
 image
Container Y is also running alpine with python installed, and it's supposed to read data from the `/app/data` directory and send a GET request to `http://localhost:8080` every 5 minutes. The Dockerfile for container B is:
 image
And you run it with:
 image
Assuming all the python scripts work perfectly and firewall isn't blocking any connections, you find that container Y can't access the web service of container X via `http://localhost:8080` and also it can't read the data in `/app/data` directory. What could be the potential reason(s)?
A: Y can't access X's web service because they're in different Docker networks.
B: Y can't read the data because the volume is not shared correctly.
C: Both A and B are correct.
D: Both A and B are incorrect.

Medium

Dockerfile Optimization
Dockerfile
Multi-stage builds
Layer Caching
Solve
You have been asked to optimize a Dockerfile for a Python application that involves a heavy dependency installation. Here is the Dockerfile you are starting with:
 image
Given that the application's source code changes frequently but the dependencies listed in requirements.txt rarely change, how can you optimize this Dockerfile to take advantage of Docker's layer caching, reducing the build time?
A: Move the `RUN pip install` command to before the `COPY` command.
B: Change `COPY . /app` to `COPY ./app.py /app` and move the `RUN pip install` command to before the `COPY` command.
C: Add `RUN pip cache purge` before `RUN pip install`.
D: Replace the base image with `python:3.8-slim`.
E: Implement multi-stage builds.

Medium

Dockerfile Updates
Cache
Solve
Check the following Dockerfile used for a project (STAGE 1):
 image
We created an image from this Dockerfile on Dec 14 2021. A couple of weeks after Dec 14 2021, Ubuntu released new security updates to their repository. After 2 months, we modified the file (STAGE 2):
 image
Couple of weeks later, we further modified the file to add a local file ada.txt to /ada.txt (STAGE 3): (Note that ada.txt exists in /home/adaface and the dockerfile exists in /home/code folders)
 image
Pick correct statements:

A: If we run “docker build .” at STAGE 2, new Ubuntu updates will be fetched because apt-get update will be run again since cache is invalidated for all lines/layers of Dockerfile when a new line is added.
B: If we run “docker build .” at STAGE 2, new Ubuntu updates will not be fetched since cache is invalidated only for last two lines of the updated Dockerfile. Since the first two commands remain the same, cached layers are re-used skipping apt get update.
C: To skip Cache, “docker build -no-cache .” can be used at STAGE 2. This will ensure new Ubuntu updates are picked up.
D: Docker command “docker build .” at STAGE 3 works as expected and adds local file ada.txt to the image.
E: Docker command “docker build .” at STAGE 3 gives an error “no such file or directory” since /home/adaface/ada.txt is not part of the Dockerfile context.

Medium

Efficient Dockerfile
Dockerfile
Solve
Review the following Dockerfiles that work on two projects (project and project2):
 image
All Docker files have the same end result:

- ‘project’ is cloned from git. After running few commands, ‘project’ code is removed.
- ‘project2’ is copied from file system and permissions to the folder is changed.
Pick the correct statements:

A: File 1 is the most efficient of all.
B: File 2 is the most efficient of all.
C: File 3 is the most efficient of all.
D: File 4 is the most efficient of all.
E: Merging multiple RUN commands into a single RUN command is efficient for ‘project’ since each RUN command creates a new layer with changed files and folders. Deleting files with RUN only marks these files as deleted but does not reclaim disk space. 
F: Copying ‘project2’ files and changing ownership in two separate commands will result in two layers since Docker duplicates all the files twice.

Medium

ConfigMap and Secrets Interaction
Resource Management
Security
Solve
In a Kubernetes cluster, you are working on configuring a new deployment that should be able to access specific environment variables through both ConfigMap and Secrets resources. The deployment YAML is structured as follows:
 image
You have applied the above YAML successfully without any errors. Now, you are about to configure a service to expose the deployment. Before doing that, you want to confirm the security and setup implications.

Based on the above configuration, which of the following statements are true?
1. The DATABASE_PASSWORD will be mounted as an environment variable in plain text.
2. The ConfigMap data can be updated and the changes will be reflected automatically in the running pods without any need for a redeployment.
3. If a potential attacker gains access to the cluster, they would be able to retrieve the DATABASE_PASSWORD in plain text from the secrets resource as it is defined in stringData.
4. The APP_ENV and DATABASE_URL values are securely stored and cannot be accessed by non-admin users.
5. If a new container in the same pod is created, it would automatically have the DATABASE_PASSWORD environment variable configured.

Medium

Ingress from namespace
Network
Network Policies
Solve
You are tasked with deploying a Kubernetes network policy. Here are the specifications:

- Name of the policy: adaface-namespace
- Policy to be deployed in ‘chatbot’ namespace
- The policy should allow ALL traffic only from ‘tester’ namespace
- Policy should not allow communication between pods in the same namespace
- Traffic only from ‘tester’ namespace is allowed on all ports
Which of the following configuration files is BEST suited to create required dependencies and deploy the network policy?
 image

Medium

Pod Affinity and Resource Quota Compliance
Pod Scheduling
Resource Management
Solve
You are working on a Kubernetes project where you need to ensure that certain pods get scheduled on nodes based on the presence of other pods and to limit the amount of resources that can be consumed in a namespace. You have been given the following YAML file which contains a combination of a pod definition and a resource quota:
 image
With the application of the above YAML configuration, assess the validity of the statements and choose the correct option that lists all the true statements.
1. The critical-pod will only be scheduled on nodes where at least one pod with a label security=high is already running.
2. The critical-pod is adhering to the resource quotas defined in the compute-quota.
3. The compute-quota restricts the namespace to only allow a total of 1 CPU and 1Gi memory in requests and 2 CPUs and 2Gi memory in limits across all pods.
4. If a node has multiple pods labeled with security=high, the critical-pod can potentially be scheduled on that node, given other scheduling constraints are met.
5. The critical-pod exceeds the defined memory request quota as per the compute-quota.

Easy

Resource limits
Pods
Containers
Solve
How would you deploy a Kubernetes pod with the following specifications:

- Name of pod: adaface
- Resource limits: 1 CPU and 512Mi memory
- Image: haproxy
A: kubectl run adaface --image=haproxy --limits='cpu=1,memory=512Mi'
B: kubectl run adaface --image=haproxy --requests='cpu=1,memory=512Mi'
 image
🧐 Question🔧 Skill

Medium

Error Budget Management
Latency Monitoring
Error Budgets
Distributed Tracing

3 mins

Site Reliability Engineering
Solve

Medium

Incident Response Procedure
Incident Management
Disaster Recovery
System Optimization

3 mins

Site Reliability Engineering
Solve

Medium

Service Balancer Decision-making
Load Balancing
Distributed Systems
Concurrent Processing

2 mins

Site Reliability Engineering
Solve

Medium

Resource Analysis
Process Management
System Performance
Log Analysis

3 mins

DevOps
Solve

Medium

Streamlined DevOps
Continuous Integration
Scripting

2 mins

DevOps
Solve

Medium

Docker Multistage Build Analysis
Multistage Builds
Optimization

3 mins

Docker
Solve

Easy

Docker Networking and Volume Mounting Interplay
Networking
Volume Mounting

3 mins

Docker
Solve

Medium

Dockerfile Optimization
Dockerfile
Multi-stage builds
Layer Caching

2 mins

Docker
Solve

Medium

Dockerfile Updates
Cache

2 mins

Docker
Solve

Medium

Efficient Dockerfile
Dockerfile

2 mins

Docker
Solve

Medium

ConfigMap and Secrets Interaction
Resource Management
Security

2 mins

Kubernetes
Solve

Medium

Ingress from namespace
Network
Network Policies

3 mins

Kubernetes
Solve

Medium

Pod Affinity and Resource Quota Compliance
Pod Scheduling
Resource Management

2 mins

Kubernetes
Solve

Easy

Resource limits
Pods
Containers

3 mins

Kubernetes
Solve
🧐 Question🔧 Skill💪 Difficulty⌛ Time
Error Budget Management
Latency Monitoring
Error Budgets
Distributed Tracing
Site Reliability Engineering
Medium3 mins
Solve
Incident Response Procedure
Incident Management
Disaster Recovery
System Optimization
Site Reliability Engineering
Medium3 mins
Solve
Service Balancer Decision-making
Load Balancing
Distributed Systems
Concurrent Processing
Site Reliability Engineering
Medium2 mins
Solve
Resource Analysis
Process Management
System Performance
Log Analysis
DevOps
Medium3 mins
Solve
Streamlined DevOps
Continuous Integration
Scripting
DevOps
Medium2 mins
Solve
Docker Multistage Build Analysis
Multistage Builds
Optimization
Docker
Medium3 mins
Solve
Docker Networking and Volume Mounting Interplay
Networking
Volume Mounting
Docker
Easy3 mins
Solve
Dockerfile Optimization
Dockerfile
Multi-stage builds
Layer Caching
Docker
Medium2 mins
Solve
Dockerfile Updates
Cache
Docker
Medium2 mins
Solve
Efficient Dockerfile
Dockerfile
Docker
Medium2 mins
Solve
ConfigMap and Secrets Interaction
Resource Management
Security
Kubernetes
Medium2 mins
Solve
Ingress from namespace
Network
Network Policies
Kubernetes
Medium3 mins
Solve
Pod Affinity and Resource Quota Compliance
Pod Scheduling
Resource Management
Kubernetes
Medium2 mins
Solve
Resource limits
Pods
Containers
Kubernetes
Easy3 mins
Solve
Reason #4

1200+ customers in 75 countries

customers in 75 countries
Brandon

Com o Adaface, conseguimos otimizar nosso processo de seleção inicial em mais de 75%, liberando um tempo precioso tanto para os gerentes de contratação quanto para nossa equipe de aquisição de talentos!


Brandon Lee, Chefe de Pessoas, Love, Bonito

Reason #5

Designed for elimination, not selection

The most important thing while implementing the pre-employment Teste de confiabilidade do site in your hiring process is that it is an elimination tool, not a selection tool. In other words: you want to use the test to eliminate the candidates who do poorly on the test, not to select the candidates who come out at the top. While they are super valuable, pre-employment tests do not paint the entire picture of a candidate’s abilities, knowledge, and motivations. Multiple easy questions are more predictive of a candidate's ability than fewer hard questions. Harder questions are often "trick" based questions, which do not provide any meaningful signal about the candidate's skillset.

Science behind Adaface tests
Reason #6

1 click candidate invites

Email invites: You can send candidates an email invite to the Teste de confiabilidade do site from your dashboard by entering their email address.

Public link: You can create a public link for each test that you can share with candidates.

API or integrations: You can invite candidates directly from your ATS by using our pre-built integrations with popular ATS systems or building a custom integration with your in-house ATS.

invite candidates
Reason #7

Detailed scorecards & benchmarks

Ver Scorecard de amostra
Reason #8

High completion rate

Adaface tests are conversational, low-stress, and take just 25-40 mins to complete.

This is why Adaface has the highest test-completion rate (86%), which is more than 2x better than traditional assessments.

test completion rate
Reason #9

Advanced Proctoring


Learn more

About the Site Reliability Online Test

Why you should use Pre-employment Site Reliability Test?

The Teste de confiabilidade do site makes use of scenario-based questions to test for on-the-job skills as opposed to theoretical knowledge, ensuring that candidates who do well on this screening test have the relavant skills. The questions are designed to covered following on-the-job aspects:

  • Compreensão do design do sistema e princípios de arquitetura
  • Proficiência em infraestrutura como código (IAC)
  • Experiência com ferramentas e processos de integração contínua/implantação contínua (CI/CD)
  • Conhecimento de conceitos e protocolos de rede
  • Familiaridade com os sistemas de monitoramento e log
  • Capacidade de lidar
  • Experiência em ajuste de desempenho e balanceamento de carga
  • Compreensão da confiabilidade e escalabilidade do banco de dados
  • Conhecimento dos princípios de segurança e práticas recomendadas
  • Proficiência no planejamento e execução de recuperação de desastres

Once the test is sent to a candidate, the candidate receives a link in email to take the test. For each candidate, you will receive a detailed report with skills breakdown and benchmarks to shortlist the top candidates from your pool.

What topics are covered in the Site Reliability Test?

  • Sistemas de monitoramento e log

    Essa habilidade avalia a capacidade do candidato de implementar e utilizar sistemas de monitoramento e log para obter informações sobre o desempenho do aplicativo, detectar problemas e solucionar problemas. Medir essa habilidade ajuda a garantir a observabilidade adequada do sistema, facilitando o monitoramento proativo, a depuração eficiente e a melhoria contínua da confiabilidade geral da infraestrutura.

  • Gerenciamento de incidentes e análise post-mortem </h4> <p > Essa habilidade mede o conhecimento e a experiência do candidato em lidar com incidentes, coordenar os esforços de resposta e conduzir a análise post-mortem para identificar causas radiculares e impedir a recorrência. Avaliar essa habilidade é essencial, pois demonstra a capacidade do candidato de gerenciar e mitigar efetivamente o impacto dos incidentes, melhorar a confiabilidade do sistema e implementar as medidas corretivas necessárias para evitar incidentes semelhantes no futuro. </p> <h4> ajuste de desempenho e balanceamento de carga

    Essa habilidade avalia a experiência do candidato em otimizar o desempenho do sistema e distribuir a carga de trabalho em vários recursos para garantir escalabilidade e alta disponibilidade. Medir essa habilidade é crucial, pois permite que as organizações forneçam aplicativos responsivos e lidam com o aumento do tráfego sem comprometer o desempenho, garantindo uma experiência suave do usuário e tempo mínimo de inatividade. A habilidade avalia o entendimento do candidato sobre as tecnologias de banco de dados, seus aspectos de confiabilidade e escalabilidade. Medir essa habilidade é importante, pois ajuda a garantir que o candidato possa projetar, monitorar e otimizar os sistemas de banco de dados, permitindo armazenamento eficiente de dados, recuperação e alta disponibilidade, mantendo a integridade e o desempenho dos dados.

  • Compreensão dos princípios de segurança

    Essa habilidade mede a compreensão do candidato de conceitos de segurança e práticas recomendadas, incluindo autenticação, autorização, criptografia e gerenciamento de vulnerabilidades. Avaliar essa habilidade é crucial, pois permite que as organizações protejam seus sistemas e dados contra acesso não autorizado, mantenham a conformidade com os requisitos regulatórios e protejam informações sensíveis de ameaças e ataques em potencial.

  • Planejamento e execução de recuperação de desastres </h4 > <p> Essa habilidade avalia a capacidade do candidato de desenvolver e implementar planos de recuperação de desastres, garantindo a continuidade dos negócios em caso de eventos catastróficos. Medir essa habilidade é importante, pois demonstra a capacidade do candidato de minimizar o tempo de inatividade, recuperar dados e infraestrutura e restaurar os serviços rapidamente, reduzindo efetivamente o impacto das interrupções na organização. P> Essa habilidade avalia o entendimento e a proficiência do candidato na criação e implementação de arquiteturas de microsserviços e utilizando tecnologias de contêinerização, como Docker e Kubernetes. A medição dessa habilidade é valiosa, pois permite que as organizações construam sistemas escaláveis, desacobcionados e gerenciáveis ​​que possam ser implantados e operados com eficiência, permitindo o desenvolvimento rápido, implantação e escalabilidade dos serviços. </p> <h4> Objetivos do nível de serviço (SLOS) e orçamentos de erro

    Essa habilidade mede o conhecimento e a aplicação do candidato de definir, rastrear e atender aos objetivos do nível de serviço, além de gerenciar orçamentos de erro. Avaliar essa habilidade é essencial, pois ajuda as organizações a estabelecer e manter a confiabilidade do serviço, tomar decisões orientadas a dados sobre o desenvolvimento de recursos e investimentos em infraestrutura e priorizar os esforços para melhorar o desempenho e a disponibilidade do sistema.

  • Gerenciamento de tráfego e sistemas distribuídos < /h4> <p> Essa habilidade avalia a capacidade do candidato de gerenciar e distribuir o tráfego recebido com eficiência em vários recursos em sistemas distribuídos. Medir essa habilidade é crucial, pois permite que as organizações lidem com cargas ricas em tráfego, melhorem o desempenho do sistema e garanta tolerância e escalabilidade de falhas, resultando em uma melhor experiência do usuário e maior confiabilidade do sistema. </p> <h4> Alta disponibilidade e estratégias de resiliência < /h4> <p> Essa habilidade avalia o conhecimento e a aplicação do candidato de estratégias e técnicas para obter alta disponibilidade e garantir a resiliência do sistema contra falhas. Medir essa habilidade é importante, pois permite que as organizações minimizem o impacto das interrupções, mantenham a disponibilidade contínua de serviços e forneça uma experiência ininterrupta do usuário, mesmo diante de circunstâncias inesperadas ou falhas de componentes. </p> <h4> Planejamento de capacidade e otimização de recursos

    Essa habilidade mede a capacidade do candidato de analisar os requisitos de capacidade do sistema, otimizar a alocação de recursos e planejar o crescimento futuro. Avaliar essa habilidade é crucial, pois permite que as organizações gerenciem efetivamente os custos de infraestrutura, evitem gargalos de desempenho ou escassez de recursos e garantam a utilização ideal de recursos, levando a operações eficientes e econômicas.

  • Full list of covered topics

    The actual topics of the questions in the final test will depend on your job description and requirements. However, here's a list of topics you can expect the questions for Teste de confiabilidade do site to be based on.

    Engenharia de confiabilidade do local
    Metodologias de DevOps
    Docker
    Kubernetes
    Projeto de sistema
    Infraestrutura como código
    Integração contínua
    Implantação contínua
    Conceitos de rede
    Sistemas de monitoramento
    Sistemas de registro
    Gerenciamento de incidentes
    Análise post-mortem
    Ajuste de desempenho
    Balanceamento de carga
    Confiabilidade do banco de dados
    Escalabilidade do banco de dados
    Princípios de segurança
    Planejamento de recuperação de desastres
    Execução de recuperação de desastres
    Microsserviços
    Contêinerização
    Objetivos do nível de serviço
    Orçamentos de erro
    Gestão de tráfego
    Sistemas distribuídos
    Alta disponibilidade
    Estratégias de resiliência
    Planejamento de capacidade
    Otimização de recursos

What roles can I use the Site Reliability Test for?

  • Engenheiro de Confiabilidade do Site (SRE)
  • Engenheiro de Confiabilidade do Site Júnior
  • Engenheiro de confiabilidade sênior do site

How is the Site Reliability Test customized for senior candidates?

For intermediate/ experienced candidates, we customize the assessment questions to include advanced topics and increase the difficulty level of the questions. This might include adding questions on topics like

  • Compreensão de microsserviços e técnicas de contêinerização
  • Capacidade na definição de objetivos de nível de serviço (SLOs) e orçamentos de erro
  • Conhecimento de gerenciamento de tráfego e sistemas distribuídos
  • Especialização em estratégias de alta disponibilidade e resiliência
  • Experiência em planejamento de capacidade e otimização de recursos
  • Capacidade de solucionar problemas e depurar questões complexas
  • Proficiência em scripts e automação
  • Conhecimento de plataformas e serviços em nuvem
  • Experiência em tecnologias de virtualização
  • Compreensão dos sistemas de controle de versão e git
Singapore government logo

Os gerentes de contratação sentiram que, por meio das perguntas técnicas feitas durante as entrevistas do painel, foram capazes de dizer quais candidatos tiveram melhores pontuações e diferenciaram aqueles que não tiveram pontuações tão boas. Eles são altamente satisfeito com a qualidade dos candidatos selecionados na triagem Adaface.


85%
Redução no tempo de triagem

Site Reliability Hiring Test Perguntas frequentes

Posso combinar várias habilidades em uma avaliação personalizada?

Sim absolutamente. As avaliações personalizadas são configuradas com base na descrição do seu trabalho e incluirão perguntas sobre todas as habilidades obrigatórias que você especificar.

Você tem algum recurso anti-trapaça ou procurador?

Temos os seguintes recursos anti-trapaça:

  • Perguntas não-goleadas
  • IP Proctoring
  • Web Proctoring
  • Proctoring da webcam
  • Detecção de plágio
  • navegador seguro

Leia mais sobre os Recursos de Proctoring.

Como interpreto as pontuações dos testes?

O principal a ter em mente é que uma avaliação é uma ferramenta de eliminação, não uma ferramenta de seleção. Uma avaliação de habilidades é otimizada para ajudá -lo a eliminar os candidatos que não são tecnicamente qualificados para o papel, não é otimizado para ajudá -lo a encontrar o melhor candidato para o papel. Portanto, a maneira ideal de usar uma avaliação é decidir uma pontuação limite (normalmente 55%, ajudamos você a comparar) e convidar todos os candidatos que pontuam acima do limiar para as próximas rodadas da entrevista.

Para que nível de experiência posso usar este teste?

Cada avaliação do Adaface é personalizada para a descrição do seu trabalho/ persona do candidato ideal (nossos especialistas no assunto escolherão as perguntas certas para sua avaliação de nossa biblioteca de mais de 10000 perguntas). Esta avaliação pode ser personalizada para qualquer nível de experiência.

Todo candidato recebe as mesmas perguntas?

Sim, facilita muito a comparação de candidatos. As opções para perguntas do MCQ e a ordem das perguntas são randomizadas. Recursos anti-traking/proctoring no local. Em nosso plano corporativo, também temos a opção de criar várias versões da mesma avaliação com questões de níveis de dificuldade semelhantes.

Eu sou um candidato. Posso tentar um teste de prática?

Não. Infelizmente, não apoiamos os testes práticos no momento. No entanto, você pode usar nossas perguntas de amostra para prática.

Qual é o custo de usar este teste?

Você pode conferir nossos planos de preços.

Posso obter uma avaliação gratuita?

Sim, você pode se inscrever gratuitamente e visualizar este teste.

Acabei de me mudar para um plano pago. Como posso solicitar uma avaliação personalizada?

Aqui está um guia rápido sobre Como solicitar uma avaliação personalizada no Adaface.

customers across world
Join 1200+ companies in 75+ countries.
Experimente a ferramenta de avaliação de habilidades mais amigáveis ​​de candidatos hoje.
g2 badges
Ready to use the Adaface Teste de confiabilidade do site?
Ready to use the Adaface Teste de confiabilidade do site?
Converse conosco
ada
Ada
● Online
Previous
Score: NA
Next
✖️