Re: [PATCH v2] docs/sp_SP: Add translation for scheduler/sched-bwc.rst

[Date Prev][Date Next][Thread Prev][Thread Next][Date Index][Thread Index]

 



Hello,

On 7/21/24 10:55, Sergio González Collado wrote:
> Translate Documentation/scheduler/sched-bwc.rst into Spanish


s/Spanish/Spanish.


>
> Signed-off-by: Sergio González Collado <sergio.collado@xxxxxxxxx>
> ---
> v1 -> v2 typos corrected
> ---
>  .../translations/sp_SP/scheduler/index.rst    |   1 +
>  .../sp_SP/scheduler/sched-bwc.rst             | 288 ++++++++++++++++++
>  2 files changed, 289 insertions(+)
>  create mode 100644 Documentation/translations/sp_SP/scheduler/sched-bwc.rst
>
> diff --git a/Documentation/translations/sp_SP/scheduler/index.rst b/Documentation/translations/sp_SP/scheduler/index.rst
> index 768488d6f001..3aef47ca87e0 100644
> --- a/Documentation/translations/sp_SP/scheduler/index.rst
> +++ b/Documentation/translations/sp_SP/scheduler/index.rst
> @@ -6,3 +6,4 @@
>      :maxdepth: 1
>  
>      sched-design-CFS
> +    sched-bwc
> diff --git a/Documentation/translations/sp_SP/scheduler/sched-bwc.rst b/Documentation/translations/sp_SP/scheduler/sched-bwc.rst
> new file mode 100644
> index 000000000000..ee9b34673560
> --- /dev/null
> +++ b/Documentation/translations/sp_SP/scheduler/sched-bwc.rst
> @@ -0,0 +1,288 @@
> +.. include:: ../disclaimer-sp.rst
> +
> +:Original: :ref:`Documentation/scheduler/sched-design-CFS.rst <sched_design_CFS>`
> +:Translator: Sergio González Collado <sergio.collado@xxxxxxxxx>
> +
> +.. _sp_sched_bwc:
> +
> +=================================
> +CFS con control de ancho de banda
> +=================================
> +
> +.. note::
> +   Este documento únicamente trata el control de ancho de banda de CPUs
> +   para SCHED_NORMAL. El caso de SCHED_RT se trata en Documentation/scheduler/sched-rt-group.rst
> +
> +El control de ancho de banda es una extensión CONFIG_FAIR_GROUP_SCHED que
> +permite especificar el máximo uso disponible de CPU para un grupo o una jerarquía.
> +
> +El ancho de banda permitido para un grupo de tareas se especifica usando una
> +cuota y un periodo. Dentro de un "periodo" (microsegundos), a un grupo
> +de tareas se le asigna hasta su "cuota" de tiempo de uso de CPU en
> +microsegundos. Esa cuota es asignada para cada CPU en colas de ejecución
> +en porciones de tiempo de ejecución en la CPU según los hilos de ejecución
> +del grupo de tareas van siendo candidatos a ejecutarse. Una vez toda la cuota
> +ha sido asignada cualquier petición adicional de cuota resultará en esos hilos
> +de ejecución siendo limitados/estrangulados. Los hilos de ejecución limitados,


s/limitados,/limitados

(No comma)


> +no serán capaces de ejecutarse de nuevo hasta el siguiente periodo cuando
> +la cuota sea restablecida.
> +
> +La cuota sin asignar de un grupo es monitorizada globalmente, siendo
> +restablecidas cfs_quota unidades al final de cada periodo. Según los
> +hilos de ejecución van consumiendo este ancho de banda, este se
> +transfiere a los "silos" de las cpu-locales en base a la demanda. La
> +cantidad transferida en cada una de esas actualizaciones es ajustable y
> +es descrito como un "slice".
> +
> +Característica de ráfaga
> +--------------------------
> +
> +Esta característica toma prestado tiempo ahora, que en un futuro tendrá que
> +devolver, con el coste de una mayor interferencia hacia los otros usuarios
> +del sistema. Todo acotado perfectamente.
> +
> +El tradicional control de ancho de banda (UP-EDF) es algo como:
> +
> +  (U = \Sum u_i) <= 1
> +
> +Esto garantiza dos cosas: que cada tiempo límite de ejecución es cumplido
> +y que el sistema es estable. De todas formas, si U fuese > 1, entonces
> +por cada segundo de tiempo de reloj de una tarea, tendríamos que
> +ejecutar más de un segundo de tiempo de ejecución de programa, y
> +obviamente no se cumpliría con el tiempo límite de ejecución de la
> +tarea, 


Remove "de tiempo de ejecucion de programa"


> pero en el siguiente periodo de ejecución el tiempo límite de
> +la tarea estaría todavía más lejos, y nunca se tendría tiempo de alcanzar
> +la ejecución, cayendo así en un fallo no acotado.
> +
> +La característica de ráfaga implica el trabajo de una tarea no siempre


s/implica el/implica que el


> +consuma totalmente la cuota; esto permite que se pueda describir u_i
> +como una distribución estadística.
> +
> +Por ejemplo, se tiene u_i = {x,e}_i, donde x es el p(95) y x+e p(100)
> +(el tradicional WCET (WCET:Worst Case Execution Time: son las siglas
> +en inglés para "peor tiempo de ejecución")). Esto efectivamente permite
> +a u ser más pequeño, aumentando la eficiencia (podemos ejecutar más
> +tareas en el sistema), pero al coste de perder el instante límite de
> +finalización deseado de la tarea, cuando coincidan las peores
> +probabilidades. De todas formas, si se mantiene la estabilidad, ya que
> +cada sobre-ejecución se empareja con una infra-ejecución en tanto x esté
> +por encima de la media.
> +
> +Es decir, supóngase que se tienen 2 tareas, ambas específicamente
> +con p(95), entonces tenemos p(95)*p(95) = 90.25% de probabilidad de
> +que ambas tareas se ejecuten dentro de su cuota asignada y todo
> +salga bien. Al mismo tiempo se tiene que p(5)*p(5) = 0.25% de
> +probabilidad que ambas tareas excedan su cuota de ejecución (fallo
> +garantizado de su tiempo final de ejecución). En algún punto por
> +en medio, hay un umbral donde una tarea excede su tiempo límite de
> +ejecución y la otra no, de forma que se compensan; esto depende de la
> +función de probabilidad acumulada específica de la tarea.
> +
> +Al mismo tiempo, se puede decir que el peor caso de sobrepasar el
> +tiempo límite de ejecución será \Sum e_i; esto es una retraso acotado
> +(asumiendo que x+e es de hecho el WCET).
> +
> +La interferencia cuando se usa una ráfaga se evalúa por las posibilidades
> +de fallar en el cumplimiento del tiempo límite y el promedio de WCET.
> +Los resultados de los tests han mostrado que cuando hay muchos cgroups o
> +una CPU está infrautilizada, la interferencia es más limitada. Más detalles
> +se aportan en: https://lore.kernel.org/lkml/5371BD36-55AE-4F71-B9D7-B86DC32E3D2B@xxxxxxxxxxxxxxxxx/
> +
> +Gestión:
> +--------
> +
> +Cuota, periodo y ráfaga se se gestionan dentro del subsistema de cpu por medio
> +de cgroupfs.
> +
> +.. note::
> +   Los archivos cgroupfs descritos en esta sección solo se aplican a el


s/a el /al


> +   cgroup v1. Para cgroup v2, ver :ref:`Documentation/admin-guide/cgroup-v2.rst <cgroup-v2-cpu>`.
> +
> +- cpu.cfs_quota_us: tiempo de ejecución que se refresca cada periodo (en microsegundos)
> +- cpu.cfs_period_us: la duración del periodo (en microsegundos)
> +- cpu.stat: exporta las estadísticas de limitación [explicado a continuación]
> +- cpu.cfs_burst_us: el máximo tiempo de ejecución acumulado (en microsegundos)
> +
> +Los valores por defecto son::
> +
> +	cpu.cfs_period_us=100ms
> +	cpu.cfs_quota_us=-1
> +	cpu.cfs_burst_us=0
> +
> +Un valor de -1 para cpu.cfs_quota_us indica que el grupo no tiene ninguna
> +restricción de ancho de banda aplicado, ese grupo se describe como un grupo
> +con ancho de banda sin restringir. Esto representa el comportamiento
> +tradicional para CFS.
> +
> +Asignar cualquier valor (válido) y positivo no menor que cpu.cfs_burst_us
> +definirá el límite del ancho de banda. La cuota mínima permitida para
> +la cuota o periodo es 1ms. Hay también un límite superior en la duración del
> +periodo de 1s. Existen restricciones adicionales cuando los límites de
> +ancho de banda se usan de manera jerárquica, estos se explican en mayor
> +detalle más adelante.
> +
> +Asignar cualquier valor negativo a cpu.cfs_quota_us eliminará el límite de
> +ancho de banda y devolverá de nuevo al grupo a un estado sin restricciones.
> +
> +Un valor de 0 para cpu.cfs_burst_us indica que el grupo no puede acumular
> +ningún ancho de banda sin usar. Esto hace que el control del comportamiento
> +tradicional del ancho de banda para CFS no cambie. Definir cualquier valor
> +(válido) positivo no mayor que cpu.cfs_quota_us en cpu.cgs_burst_us definirá
> +el límite con el ancho de banda acumulado no usado.
> +
> +Cualquier actualización a las especificaciones del ancho de banda usado
> +por un grupo resultará en que se deje de limitar si está en un estado
> +restringido.
> +
> +Ajustes globales del sistema
> +----------------------------
> +
> +Por eficiencia el tiempo de ejecución es transferido en lotes desde una reserva
> +global y el "silo" de una CPU local. Esto reduce en gran medida la presión
> +por la contabilidad en grandes sistemas. La cantidad transferida cada vez
> +que se requiere una actualización se describe como "slice".
> +
> +Esto es ajustable vía procfs::
> +
> +	/proc/sys/kernel/sched_cfs_bandwidth_slice_us (valor por defecto=5ms)
> +
> +Valores de "slice" más grandes reducirán el costo de transferencia, mientras
> +que valores más pequeños permitirán un control más fino del consumo.
> +
> +Estadísticas
> +------------
> +
> +Las estadísticas del ancho de banda de un grupo se exponen en 5 campos en cpu.stat.
> +
> +cpu.stat:
> +
> +- nr_periods: Número de intervalos aplicados que han pasado.
> +- nr_throttled: Número de veces que el grupo ha sido restringido/limitado.
> +- throttled_time: La duración de tiempo total (en nanosegundos) en las
> +  que las entidades del grupo han sido limitadas.
> +- nr_bursts: Número de periodos en que ha ocurrido una ráfaga.
> +- burst_time: Tiempo acumulado (en nanosegundos) en la que una CPU ha
> +  usado más de su cuota en los respectivos periodos.
> +
> +Este interfaz es de solo lectura.
> +
> +Consideraciones jerárquicas
> +---------------------------
> +
> +El interfaz refuerza que el ancho de banda de una entidad individual


s/El interfaz/La interfaz


> +sea siempre factible, esto es: max(c_i) <= C. De todas maneras,
> +la sobre-suscripción en el caso agregado está explícitamente permitida
> +para hacer posible semánticas de conservación de trabajo dentro de una
> +jerarquia.
> +
> +  e.g. \Sum (c_i) puede superar C
> +
> +[ Donde C es el ancho de banda de el padre, y c_i el de su hijo ]
> +
> +Hay dos formas en las que un grupo puede ser limitado:
> +
> +        a. este consume totalmente su propia cuota en un periodo.
> +        b. la cuota del padre es consumida totalmente en su periodo.
> +
> +En el caso b) anterior, incluso si el hijo pudiera tener tiempo de
> +ejecución restante, este no le será permitido hasta que el tiempo de
> +ejecución del padre sea actualizado.
> +
> +Advertencias sobre el CFS con control de cuota de ancho de banda
> +----------------------------------------------------------------
> +
> +Una vez una "slice" se asigna a una cpu esta no expira. A pesar de eso todas,
> +excepto las "slices" menos las de 1ms, puede ser devueltas a la reserva global
> +si todos los hilos en esa cpu pasan a ser no ejecutables. Esto se configura
> +en el tiempo de compilación por la variable min_cfs_rq_runtime. Esto es un
> +ajuste en la eficacia que ayuda a prevenir añadir bloqueos en el candado global.
> +
> +El hecho de que las "slices" de una cpu local no expiren tiene como resultado
> +algunos casos extremos interesantes que debieran ser comprendidos.
> +
> +Para una aplicación que es un cgroup y que está limitada en su uso de cpu
> +es un punto discutible ya que de forma natural consumirá toda su parte
> +de cuota así como también la totalidad de su cuota en cpu locales en cada
> +periodo. Como resultado se espera que nr_periods sea aproximadamente igual
> +a nr_throttled, y que cpuacct.usage se incremente aproximadamente igual
> +a cfs_quota_us en cada periodo.
> +
> +Para aplicaciones que tienen un gran número de hilos de ejecución y que no
> +estan ligadas a una cpu, este matiz de la no-expiración permite que las
> +aplicaciones brevemente sobrepasen su cuota límite en la cantidad que
> +no ha sido usada en cada cpu en la que el grupo de tareas se está ejecutando
> +(típicamente como mucho 1ms por cada cpu o lo que se ha definido como
> +min_cfs_rq_runtime). Este pequeño sobreuso únicamente tiene lugar si
> +la cuota que ha sido asignada a una cpu y no ha sido completamente usada
> +o devuelta en periodos anteriores. Esta cantidad de sobreuso no será
> +transferida entre núcleos. Como resultado, este mecanismo todavía cumplirá
> +estrictamente los límites de la tarea de grupo en el promedio del uso,
> +pero sobre una ventana de tiempo mayor que un único periodo. Esto
> +también limita la habilidad de un sobreuso a no más de 1ms por cada cpu.
> +Esto provee de una experiencia de uso más predecible para aplicaciones
> +con muchos hilos y con límites de cuota pequeños en máquinas con muchos
> +núcleos. Esto también elimina la propensión a limitar estas
> +aplicaciones mientras que simultáneamente usan menores cuotas
> +de uso por cpu. Otra forma de decir esto es que permitiendo que
> +la parte no usada de una "slice" permanezca válida entre periodos
> +disminuye la posibilidad de malgastare cuota que va a expirar en
> +las reservas de la cpu locales que no necesitan una "slice" completa
> +de tiempo de ejecución de cpu.
> +
> +La interacción entre las aplicaciones ligadas a una CPU y las que no están
> +ligadas a ninguna cpu ha de ser también considerada, especialmente cuando
> +un único núcleo tiene un uso del 100%. Si se da a cada una de esas
> +aplicaciones la mitad de la capacidad de una CPU-núcleo y ambas
> +están gestionadas en la misma CPU es teóricamente posible que la aplicación
> +no ligada a ninguna CPU use su 1ms adicional de cuota en algunos periodos,
> +y por tanto evite que la aplicación ligada a una CPU pueda usar su
> +cuota completa por esa misma cantidad. En esos caso el algoritmo CFS (vea
> +sched-design-CFS.rst) el que decida qué aplicación es la elegida para
> +ejecutarse, ya que ambas serán candidatas a ser ejecutadas y tienen
> +cuota restante. Esta discrepancia en el tiempo de ejecución se compensará
> +en los periodos siguientes cuando el sistema esté inactivo.
> +
> +Ejemplos
> +---------
> +
> +1. Un grupo limitado a 1 CPU de tiempo de ejecución.
> +
> +    Si el periodo son 250ms y la cuota son 250ms el grupo de tareas tendrá el tiempo
> +    de ejecución de 1 CPU cada 250ms::
> +
> +	# echo 250000 > cpu.cfs_quota_us /* cuota = 250ms */
> +	# echo 250000 > cpu.cfs_period_us /* periodo = 250ms */
> +
> +2. Un grupo limitado al tiempo de ejecución de 2 CPUs en una máquina varias CPUs.
> +
> +    Con un periodo de 500ms y una cuota de 1000ms el grupo de tareas tiene el tiempo
> +    de ejecución de 2 CPUs cada 500ms::
> +
> +	# echo 1000000 > cpu.cfs_quota_us /* cuota = 1000ms */
> +	# echo 500000 > cpu.cfs_period_us /* periodo = 500ms */
> +
> +    El periodo más largo aquí permite una capacidad de ráfaga mayor.
> +
> +3. Un grupo limitado a un 20% de 1 CPU.
> +
> +    Con un periodo de 50ms, 10ms de cuota son equivalentes al 20% de 1 CPUs::
> +
> +	# echo 10000 > cpu.cfs_quota_us /* cuota = 10ms */
> +	# echo 50000 > cpu.cfs_period_us /* periodo = 50ms */
> +
> +    Usando un periodo pequeño aquí nos aseguramos una respuesta de
> +    la latencia consistente a expensas de capacidad de ráfaga.
> +
> +4. Un grupo limitado al 40% de 1 CPU, y permite acumular adicionalmente
> +   hasta un 20% de 1 CPU.
> +
> +    Con un periodo de 50ms, 20ms de cuota son equivalentes al 40% de
> +    1 CPU. Y 10ms de ráfaga, son equivalentes a un 20% de 1 CPU::
> +
> +	# echo 20000 > cpu.cfs_quota_us /* cuota = 20ms */
> +	# echo 50000 > cpu.cfs_period_us /* periodo = 50ms */
> +	# echo 10000 > cpu.cfs_burst_us /* ráfaga = 10ms */
> +
> +    Un ajuste mayor en la capacidad de almacenamiento (no mayor que la cuota)
> +    permite una mayor capacidad de ráfaga.
> +


Great, thanks! With these changes:

Reviewed-by: Carlos Bilbao <carlos.bilbao.osdev@xxxxxxxxx>





[Index of Archives]     [Kernel Newbies]     [Security]     [Netfilter]     [Bugtraq]     [Linux FS]     [Yosemite Forum]     [MIPS Linux]     [ARM Linux]     [Linux Security]     [Linux RAID]     [Samba]     [Video 4 Linux]     [Device Mapper]     [Linux Resources]

  Powered by Linux