Vous êtes sur la page 1sur 4

Search Keras documentation...

» Keras API reference /


Metrics /
Accuracy metrics
 Star 55,237

About Keras Accuracy metrics


Getting started Accuracy class
Developer guides
tf.keras.metrics.Accuracy(name="accuracy", dtype=None)

Keras API reference


Models API Calculates how often predictions equal labels.

Layers API This metric creates two local variables, and that are used to
compute the frequency with which
matches . This frequency is
ultimately returned as : an idempotent operation that simply
divides by
Callbacks API .totalcounty_predy_truebinary accuracytotalcount
Optimizers
If is , weights default to 1.
Use of 0 to mask values.sample_weightNonesample_weight
Metrics
Arguments
Losses
name: (Optional) string name of the metric instance.
Data loading dtype: (Optional) data type of the metric result.
Built-in small datasets
Standalone usage:
Keras Applications

Mixed precision >>> m = tf.keras.metrics.Accuracy()

>>> m.update_state([[1], [2], [3], [4]], [[0], [2], [3], [4]])

Utilities >>> m.result().numpy()

0.75

KerasTuner

KerasCV
>>> m.reset_state()

KerasNLP >>> m.update_state([[1], [2], [3], [4]], [[0], [2], [3], [4]],

... sample_weight=[1, 1, 0, 0])

Code examples >>> m.result().numpy()

0.5

Why choose Keras?

Community & governance Usage with API:compile()

Contributing to Keras
model.compile(optimizer='sgd',

loss='mse',

KerasTuner
metrics=[tf.keras.metrics.Accuracy()])

KerasCV

KerasNLP
BinaryAccuracy classe

tf.keras.metrics.BinaryAccuracy(

name="binary_accuracy", dtype=None, threshold=0.5

Calcule la fréquence à laquelle les prédictions correspondent aux étiquettes binaires.

Cette métrique crée deux variables locales, qui sont utilisées pour calculer la fréquence avec laquelle
les correspondances . Cette fréquence est finalement renvoyée comme : une opération idempotente
qui divise simplement par .totalcounty_predy_truebinary accuracytotalcount

Si est , les pondérations par défaut sont 1. Utilisation de 0 pour masquer les
valeurs.sample_weightNonesample_weight

Arguments

name : nom de chaîne (facultatif) de l’instance de mesure.


dtype : type de données (Facultatif) du résultat de la mesure.
seuil : (Facultatif) Float représentant le seuil permettant de décider si les valeurs de prédiction
sont 1 ou 0.
Utilisation autonome :

>>> m = tf.keras.metrics.BinaryAccuracy()

>>> m.update_state([[1], [1], [0], [0]], [[0.98], [1], [0], [0.6]])

>>> m.result().numpy()

0.75

>>> m.reset_state()

>>> m.update_state([[1], [1], [0], [0]], [[0.98], [1], [0], [0.6]],

... sample_weight=[1, 0, 0, 1])

>>> m.result().numpy()

0.5

Utilisation avec l’API :compile()

model.compile(optimizer='sgd',

loss='mse',

metrics=[tf.keras.metrics.BinaryAccuracy()])

CategoricalAccuracy classe

tf.keras.metrics.CategoricalAccuracy(name="categorical_accuracy", dtype=None)

Calcule la fréquence à laquelle les prédictions correspondent à des étiquettes à un seul bouton.

Vous pouvez fournir des logits de classes comme , puisque argmax de logits et de probabilités sont
identiques.y_pred

Cette métrique crée deux variables locales, qui sont utilisées pour calculer la fréquence avec laquelle
les correspondances . Cette fréquence est finalement renvoyée comme : une opération idempotente
qui divise simplement par .totalcounty_predy_truecategorical accuracytotalcount

y_pred et devraient être transmis comme vecteurs de probabilités, plutôt que comme étiquettes. Si
nécessaire, utilisez tf.one_hot pour développer en tant que vecteur.y_truey_true

Si est , les pondérations par défaut sont 1. Utilisation de 0 pour masquer les
valeurs.sample_weightNonesample_weight

Arguments

name : nom de chaîne (facultatif) de l’instance de mesure.


dtype : type de données (Facultatif) du résultat de la mesure.

Utilisation autonome :

>>> m = tf.keras.metrics.CategoricalAccuracy()

>>> m.update_state([[0, 0, 1], [0, 1, 0]], [[0.1, 0.9, 0.8],

... [0.05, 0.95, 0]])

>>> m.result().numpy()

0.5

>>> m.reset_state()

>>> m.update_state([[0, 0, 1], [0, 1, 0]], [[0.1, 0.9, 0.8],

... [0.05, 0.95, 0]],

... sample_weight=[0.7, 0.3])

>>> m.result().numpy()

0.3

Usage with API:compile()

model.compile(

optimizer='sgd',

loss='mse',

metrics=[tf.keras.metrics.CategoricalAccuracy()])

SparseCategoricalAccuracy class

tf.keras.metrics.SparseCategoricalAccuracy(

name="sparse_categorical_accuracy", dtype=None

Calculates how often predictions match integer labels.

acc = np.dot(sample_weight, np.equal(y_true, np.argmax(y_pred, axis=1))

You can provide logits of classes as , since argmax of


logits and probabilities are same.y_pred

This metric creates two local variables, and that are used to
compute the frequency with which
matches . This frequency is
ultimately returned as : an idempotent operation
that simply divides by
.totalcounty_predy_truesparse categorical accuracytotalcount

If is , weights default to 1.
Use of 0 to mask values.sample_weightNonesample_weight

Arguments

name: (Optional) string name of the metric instance.


dtype: (Optional) data type of the metric result.

Standalone usage:

>>> m = tf.keras.metrics.SparseCategoricalAccuracy()

>>> m.update_state([[2], [1]], [[0.1, 0.6, 0.3], [0.05, 0.95, 0]])

>>> m.result().numpy()

0.5

>>> m.reset_state()

>>> m.update_state([[2], [1]], [[0.1, 0.6, 0.3], [0.05, 0.95, 0]],

... sample_weight=[0.7, 0.3])

>>> m.result().numpy()

0.3

Usage with API:compile()

model.compile(

optimizer='sgd',

loss='mse',

metrics=[tf.keras.metrics.SparseCategoricalAccuracy()])

TopKCategoricalAccuracy class

tf.keras.metrics.TopKCategoricalAccuracy(

k=5, name="top_k_categorical_accuracy", dtype=None

Computes how often targets are in the top predictions.K

Arguments

k: (Optional) Number of top elements to look at for computing accuracy.


Defaults to 5.
name: (Optional) string name of the metric instance.
dtype: (Optional) data type of the metric result.

Standalone usage:

>>> m = tf.keras.metrics.TopKCategoricalAccuracy(k=1)

>>> m.update_state([[0, 0, 1], [0, 1, 0]],

... [[0.1, 0.9, 0.8], [0.05, 0.95, 0]])

>>> m.result().numpy()

0.5

>>> m.reset_state()

>>> m.update_state([[0, 0, 1], [0, 1, 0]],

... [[0.1, 0.9, 0.8], [0.05, 0.95, 0]],

... sample_weight=[0.7, 0.3])

>>> m.result().numpy()

0.3

Usage with API:compile()

model.compile(optimizer='sgd',

loss='mse',

metrics=[tf.keras.metrics.TopKCategoricalAccuracy()])

SparseTopKCategoricalAccuracy class

tf.keras.metrics.SparseTopKCategoricalAccuracy(

k=5, name="sparse_top_k_categorical_accuracy", dtype=None

Computes how often integer targets are in the top predictions.K

Arguments

k: (Optional) Number of top elements to look at for computing accuracy.


Defaults to 5.
name: (Optional) string name of the metric instance.
dtype: (Optional) data type of the metric result.

Standalone usage:

>>> m = tf.keras.metrics.SparseTopKCategoricalAccuracy(k=1)

>>> m.update_state([2, 1], [[0.1, 0.9, 0.8], [0.05, 0.95, 0]])

>>> m.result().numpy()

0.5

>>> m.reset_state()

>>> m.update_state([2, 1], [[0.1, 0.9, 0.8], [0.05, 0.95, 0]],

... sample_weight=[0.7, 0.3])

>>> m.result().numpy()

0.3

Usage with API:compile()

model.compile(

optimizer='sgd',

loss='mse',

metrics=[tf.keras.metrics.SparseTopKCategoricalAccuracy()])

Vous aimerez peut-être aussi