]> gcc.gnu.org Git - gcc.git/blobdiff - libgcc/libgcov.h
profiling: fix streaming of TOPN counters
[gcc.git] / libgcc / libgcov.h
index 7c037a978785efddd59edb29415de164100deb5e..2780cc098c86dd709a5b02cb07a5a7ba168411b6 100644 (file)
@@ -1,5 +1,5 @@
 /* Header file for libgcov-*.c.
-   Copyright (C) 1996-2020 Free Software Foundation, Inc.
+   Copyright (C) 1996-2021 Free Software Foundation, Inc.
 
    This file is part of GCC.
 
 #include "libgcc_tm.h"
 #include "gcov.h"
 
+#if HAVE_SYS_MMAN_H
+#include <sys/mman.h>
+#endif
+
 #if __CHAR_BIT__ == 8
 typedef unsigned gcov_unsigned_t __attribute__ ((mode (SI)));
 typedef unsigned gcov_position_t __attribute__ ((mode (SI)));
@@ -85,6 +89,19 @@ typedef unsigned gcov_type_unsigned __attribute__ ((mode (QI)));
 #define GCOV_LOCKED 0
 #endif
 
+#ifndef GCOV_SUPPORTS_ATOMIC
+/* Detect whether target can support atomic update of profilers.  */
+#if __SIZEOF_LONG_LONG__ == 4 && __GCC_HAVE_SYNC_COMPARE_AND_SWAP_4
+#define GCOV_SUPPORTS_ATOMIC 1
+#else
+#if __SIZEOF_LONG_LONG__ == 8 && __GCC_HAVE_SYNC_COMPARE_AND_SWAP_8
+#define GCOV_SUPPORTS_ATOMIC 1
+#else
+#define GCOV_SUPPORTS_ATOMIC 0
+#endif
+#endif
+#endif
+
 /* In libgcov we need these functions to be extern, so prefix them with
    __gcov.  In libgcov they must also be hidden so that the instance in
    the executable is not also used in a DSO.  */
@@ -203,7 +220,8 @@ struct gcov_info
   const struct gcov_fn_info *const *functions; /* pointer to pointers
                                                   to function information  */
 #else
-  const struct gcov_fn_info **functions;
+  struct gcov_fn_info **functions;
+  struct gcov_summary summary;
 #endif /* !IN_GCOV_TOOL */
 };
 
@@ -236,6 +254,9 @@ struct indirect_call_tuple
   
 /* Exactly one of these will be active in the process.  */
 extern struct gcov_master __gcov_master;
+extern struct gcov_kvp *__gcov_kvp_dynamic_pool;
+extern unsigned __gcov_kvp_dynamic_pool_index;
+extern unsigned __gcov_kvp_dynamic_pool_size;
 
 /* Dump a set of gcov objects.  */
 extern void __gcov_dump_one (struct gcov_root *) ATTRIBUTE_HIDDEN;
@@ -377,51 +398,104 @@ gcov_get_counter_target (void)
    if USE_ATOMIC is true.  */
 
 static inline void
-gcov_counter_add (gcov_type *counter, gcov_type value, int use_atomic)
+gcov_counter_add (gcov_type *counter, gcov_type value,
+                 int use_atomic ATTRIBUTE_UNUSED)
 {
+#if GCOV_SUPPORTS_ATOMIC
   if (use_atomic)
     __atomic_fetch_add (counter, value, __ATOMIC_RELAXED);
   else
+#endif
     *counter += value;
 }
 
-/* Set NODE to memory location COUNTER and make it with atomic operation
-   if USE_ATOMIC is true.  */
+#if HAVE_SYS_MMAN_H
+
+/* Allocate LENGTH with mmap function.  */
 
-static inline int
-gcov_counter_set_if_null (gcov_type *counter, struct gcov_kvp *node,
-                         int use_atomic)
+static inline void *
+malloc_mmap (size_t length)
 {
-  if (use_atomic)
-    return !__sync_val_compare_and_swap (counter, NULL, (intptr_t)node);
-  else
+  return mmap (NULL, length, PROT_READ | PROT_WRITE,
+              MAP_PRIVATE | MAP_ANONYMOUS, -1, 0);
+}
+
+#endif
+
+/* Allocate gcov_kvp from statically pre-allocated pool,
+   or use heap otherwise.  */
+
+static inline struct gcov_kvp *
+allocate_gcov_kvp (void)
+{
+#define MMAP_CHUNK_SIZE        (128 * 1024)
+  struct gcov_kvp *new_node = NULL;
+  unsigned kvp_sizeof = sizeof(struct gcov_kvp);
+
+  /* Try mmaped pool if available.  */
+#if !defined(IN_GCOV_TOOL) && !defined(L_gcov_merge_topn) && HAVE_SYS_MMAN_H
+  if (__gcov_kvp_dynamic_pool == NULL
+      || __gcov_kvp_dynamic_pool_index >= __gcov_kvp_dynamic_pool_size)
     {
-      *counter = (intptr_t)node;
-      return 1;
+      void *ptr = malloc_mmap (MMAP_CHUNK_SIZE);
+      if (ptr != MAP_FAILED)
+       {
+         __gcov_kvp_dynamic_pool = ptr;
+         __gcov_kvp_dynamic_pool_size = MMAP_CHUNK_SIZE / kvp_sizeof;
+         __gcov_kvp_dynamic_pool_index = 0;
+       }
     }
+
+  if (__gcov_kvp_dynamic_pool != NULL)
+    {
+      unsigned index;
+#if GCOV_SUPPORTS_ATOMIC
+      index
+       = __atomic_fetch_add (&__gcov_kvp_dynamic_pool_index, 1,
+                             __ATOMIC_RELAXED);
+#else
+      index = __gcov_kvp_dynamic_pool_index++;
+#endif
+      if (index < __gcov_kvp_dynamic_pool_size)
+       new_node = __gcov_kvp_dynamic_pool + index;
+    }
+#endif
+
+  /* Fallback to malloc.  */
+  if (new_node == NULL)
+    new_node = (struct gcov_kvp *)xcalloc (1, kvp_sizeof);
+
+  return new_node;
 }
 
 /* Add key value pair VALUE:COUNT to a top N COUNTERS.  When INCREMENT_TOTAL
    is true, add COUNT to total of the TOP counter.  If USE_ATOMIC is true,
-   do it in atomic way.  */
+   do it in atomic way.  Return true when the counter is full, otherwise
+   return false.  */
 
-static inline void
+static inline unsigned
 gcov_topn_add_value (gcov_type *counters, gcov_type value, gcov_type count,
                     int use_atomic, int increment_total)
 {
   if (increment_total)
-    gcov_counter_add (&counters[0], 1, use_atomic);
+    {
+      /* In the multi-threaded mode, we can have an already merged profile
+        with a negative total value.  In that case, we should bail out.  */
+      if (counters[0] < 0)
+       return 0;
+      gcov_counter_add (&counters[0], 1, use_atomic);
+    }
 
   struct gcov_kvp *prev_node = NULL;
   struct gcov_kvp *minimal_node = NULL;
-  struct gcov_kvp *current_node  = (struct gcov_kvp *)counters[2];
+  struct gcov_kvp *current_node  = (struct gcov_kvp *)(intptr_t)counters[2];
 
   while (current_node)
     {
       if (current_node->value == value)
        {
          gcov_counter_add (&current_node->count, count, use_atomic);
-         return;
+         return 0;
        }
 
       if (minimal_node == NULL
@@ -439,25 +513,54 @@ gcov_topn_add_value (gcov_type *counters, gcov_type value, gcov_type count,
          minimal_node->value = value;
          minimal_node->count = count;
        }
+
+      return 1;
     }
   else
     {
-      struct gcov_kvp *new_node
-       = (struct gcov_kvp *)xcalloc (1, sizeof (struct gcov_kvp));
+      struct gcov_kvp *new_node = allocate_gcov_kvp ();
+      if (new_node == NULL)
+       return 0;
+
       new_node->value = value;
       new_node->count = count;
 
       int success = 0;
       if (!counters[2])
-       success = gcov_counter_set_if_null (&counters[2], new_node, use_atomic);
+       {
+#if GCOV_SUPPORTS_ATOMIC
+         if (use_atomic)
+           {
+             struct gcov_kvp **ptr = (struct gcov_kvp **)(intptr_t)&counters[2];
+             success = !__sync_val_compare_and_swap (ptr, 0, new_node);
+           }
+         else
+#endif
+           {
+             counters[2] = (intptr_t)new_node;
+             success = 1;
+           }
+       }
       else if (prev_node && !prev_node->next)
-       success = gcov_counter_set_if_null ((gcov_type *)&prev_node->next,
-                                           new_node, use_atomic);
+       {
+#if GCOV_SUPPORTS_ATOMIC
+         if (use_atomic)
+           success = !__sync_val_compare_and_swap (&prev_node->next, 0,
+                                                   new_node);
+         else
+#endif
+           {
+             prev_node->next = new_node;
+             success = 1;
+           }
+       }
 
       /* Increment number of nodes.  */
       if (success)
        gcov_counter_add (&counters[1], 1, use_atomic);
     }
+
+  return 0;
 }
 
 #endif /* !inhibit_libc */
This page took 0.03222 seconds and 5 git commands to generate.