SOURCES DE DONNÉES {#app:data}

Les données sur les prises commerciales et à des fins de recherche, sur l’effort et sur la biologie concernant les poissons de fond sont archivées par l’unité des données sur les poissons de fond (Pêches et Océans Canada, Direction des sciences, région du Pacifique) et sont conservées dans un certain nombre de bases de données relationnelles [@databases2019]. Les données historiques sur les prises commerciales et l’effort de pêche pour la période allant de 1954 à 2006-2007 sont conservées dans GFCatch, PacHarvest, PacHarvHL et PacHarvSable, selon la pêche et la période. Les données sur les prises commerciales modernes (de 2006-2007 à aujourd’hui) sont conservées dans GFFOS, une vue spécifique aux poissons de fond de la base de données du Système d’exploitation des pêches (SEP) (Pêches et Océans Canada, Gestion des pêches et de l’aquaculture, région du Pacifique). Les données des relevés de recherche et les données biologiques commerciales des années 1940 à aujourd’hui sont conservées dans GFBio, la base de données des échantillons biologiques de poissons de fond. La base de données PacHarv3 peut contenir d’autres données historiques sur les bordereaux de vente commerciale de flétan, de morue charbonnière et de morue-lingue. Ces données supplémentaires nécessitent une analyse plus détaillée si on veut pouvoir les inclure dans les reconstructions des prises et elles ne sont pas comprises dans le présent rapport.

GF_MERGED_CATCH POUR LES DONNÉES SUR LES PRISES COMMERCIALES ET L’EFFORT DE PÊCHE

Les données sur les prises commerciales et l’effort de pêche pour les fonctions de rapport de synthèse et gfplot proviennent du tableau GF_MERGED_CATCH de la base de données GFFOS. Dans chaque base de données commerciale, il existe un tableau officiel des prises qui fournit la meilleure estimation disponible des prises débarquées par emplacement quand on applique la proportion des prises par ensemble ou par zone aux données de débarquement au niveau des sorties. Depuis 2015, les tableaux officiels des prises des différentes bases de données ont été fusionnés dans GF_MERGED_CATCH pour faciliter et normaliser l’extraction des données commerciales.

Les proportions des prises sont calculées à partir de l’information la plus détaillée disponible sur le plan spatial quant à la quantité de chaque espèce qui est récoltée par ensemble ou par zone. Dans la plupart des cas, ces prises sont déclarées dans les journaux de bord des observateurs ou des pêcheurs. Les données plus anciennes contiennent des enregistrements dans lesquels l’information au niveau de l’ensemble a été résumée, par exemple, par zone (voir @rutherford1999 pour des détails sur la façon dont les prises ont été enregistrées dans les bases de données). Les proportions sont appliquées à la meilleure information disponible sur la quantité de chaque espèce qui est récoltée au cours d’un voyage. Dans la plupart des cas, il s’agit du poids au débarquement enregistré par le Programme de vérification à quai (PVQ). Les données sur les prises antérieures sont enregistrées à partir des bordereaux de vente ou des journaux des observateurs ou des pêcheurs (voir @rutherford1999 pour davantage de détails sur les sources de données).

Vous trouverez ci-après des détails sur la façon dont les tableaux officiels des prises sont créés dans chacune des bases de données alimentant GF_MERGED_CATCH.

GFCatch 1954-1995 (CHALUT ET CASIER)

Les données sur les prises sont extraites par voyage et séparées par poids conservé (enregistrés sur les bordereaux de vente/dossiers de débarquement) ou poids rejeté (sans dénombrement) à l’aide des codes d’utilisation dans la vue vw_Total_Catch. Les débarquements et les rejets sont combinés avec les tableaux de voyage, d’événement, de zone et de bateau pour qu’on puisse présenter les prises avec les détails connexes : ID de sortie, ID d’événement de pêche, secteur, engin, bateau, meilleure date (date de fin de sortie), meilleure profondeur (en ordre préférentiel : profondeur moyenne, profondeur minimale, profondeur maximale), espèce, zone et latitude et longitude (du début si disponible, autrement de fin). Les proportions de l’ensemble (trait de chalut ou ligne de casiers) au sein du total des débarquements ne sont pas calculées, car la plupart des données plus anciennes n’incluent pas l’information au niveau de l’ensemble provenant des journaux des observateurs ou des pêcheurs (les données sont résumées par zone). Lorsque la source = 1 (rapport de sortie du chalutier) ou 2 (bordereau de vente du chalutier ou dossier de débarquement seulement), le type d’engin est réglé sur chalut. Lorsque la source = 5 (rapport de sortie pour les casiers) ou 6 (bordereau de vente pour le casier ou dossier de débarquement seulement), le type d’engin est réglé sur casier.

PacHarvest 1996-2007 (CHALUT SEULEMENT)

Dans la base de données PacHarvest, les poids des prises conservées sont extraits à partir des journaux de bord des observateurs à bord par nombre d’entrées en mer (représentant habituellement un voyage) et par ensemble (trait de chalut) pour qu’on puisse calculer la proportion de l’ensemble du total des prises durant le voyage ou l’entrée. Cette proportion dérivée des données du journal de l’observateur est ensuite appliquée aux poids des prises durant l’entrée dans les registres à quai afin qu’on puisse obtenir un poids au débarquement plus précis par ensemble. Ces débarquements, ainsi que les poids conservés tirés des journaux de bord des pêcheurs, sont combinés avec le niveau de sortie (comme pour GFCatch ci dessus) et les détails au niveau de l’ensemble pour créer le tableau D_Official_Catch pour PacHarvest.

PacHarvSable 1996-2006 (CASIER ET LIGNE ET HAMEÇON)

Dans PacHarvSable, le tableau D_Merged_Catches combine des numéros d’ensemble uniques pour chaque numéro d’entrée avec les poids conservés et rejetés tirés des journaux de bord des pêcheurs et les poids au débarquement consignés dans les bordereaux de vente ou les dossiers de validation à quai. Ces données sur les prises sont combinées aux données au niveau du voyage et de l’ensemble dans le tableau D_Official_Catch, le poids au débarquement présentant les débarquements ou, si les débarquements ne sont pas disponibles, le poids conservé.

PacHarvHL 1985-2006 (LIGNE ET HAMEÇON SEULEMENT)

Les données sur les prises dans PacHarvHL sont combinées avec les données au niveau du voyage et de l’ensemble. Les prises sont enregistrées comme étant le meilleur du poids au débarquement (bordereaux de vente ou registres du PVQ) ou du poids conservé (journaux de bord du pêcheur), et la source (débarquée ou conservée) est indiquée dans la colonne source. Les relevés de latitude et de longitude correspondent au début d’un événement de pêche. La meilleure profondeur disponible pour l’événement de pêche est indiquée pour chaque événement de pêche, dans l’ordre préférentiel, la moyenne des profondeurs de début et de fin, la moyenne des profondeurs minimale et maximale, la profondeur de début, la profondeur de fin, la profondeur minimale ou la profondeur maximale. La meilleure date disponible est indiquée, dans l’ordre préférentiel, par la date de fin de l’événement de pêche, la date de début de l’événement de pêche ou la date de fin du voyage.

GFFOS DE 2007 JUSQU’À PRÉSENT (CHALUT, CASIER ET LIGNE ET HAMEÇON)

Pour créer le tableau officiel des prises dans GFFOS, on calcule d’abord le poids moyen par pièce (poisson individuel) pour chaque espèce par voyage afin de saisir ensuite le poids des prises lorsque seul le nombre de prises est disponible. Les débarquements enregistrés par le PVQ sont extraits par voyage. Les prises sont extraites des données des journaux de bord des observateurs et des pêcheurs par sortie et séparées en fonction des codes d’utilisation suivants : remise à l’eau/conservée, taille légale/taille inférieure à la taille légale, permis et appâts. Le kg moyen par pièce est calculé par espèce à partir des données du PVQ comme suit : ROUND_KG_PER_OFFLOAD_PIECE = OFFLOAD WT/OFFLOAD CT. Lorsqu’il n’est pas disponible pour une sortie, ROUND_KG_PER_RETAINED_PIECE est calculé par espèce à partir des données du journal de bord. Si cette information aussi n’est pas disponible, on calcule le kg par pièce par espèce pour tous les trips = EST_KG_PER_PIECE, et les données sur les « prises conservées » des journaux de bord des pêcheurs sont extraites par événement de pêche. S’il n’y a pas de poids conservé enregistré, mais qu’il y a un décompte des poissons conservés, on calcule BEST_RETAINED_WT en multipliant le décompte des poissons conservés par le meilleur kg moyen disponible par pièce à partir, en ordre préférentiel, de ROUND_KG_PER_OFFLOAD_PIECE, ROUND_KG_PER_RETAINED_PIECE, EST_ROUND_KG_PER_PIECE. De la même manière, s’il n’y a pas de décompte de pièces retenues enregistré, mais qu’il y a un poids conservé, le poids conservé est alors divisé par le meilleur poids moyen disponible par pièce pour donner BEST_RETAINED_COUNT. Les totaux pour le voyage sont ensuite calculés pour le poids au débarquement, le poids des prises conservées, le nombre de prises débarquées et le nombre de prises conservées, et les ratios sont calculés pour le poids au débarquement par voyage par rapport au poids des prises conservées par voyage et le décompte des prises débarquées par voyage par rapport au décompte des prises conservées par voyage.

Tous les meilleurs poids des prises conservées, débarquées et rejetées ainsi que les dénombrements sont combinés dans une seule vue, GF_D_MERGED_FE_CATCH2_SUMRY_VW. Aux emplacements où LANDED_ROUND_KG est NULL, mais où des poids de prises conservées sont déclarés et qu’un ratio du poids des prises débarquées par rapport au poids des prises conservées existe, le poids au débarquement est donné comme étant BEST_RETAINED_ROUND_KG $\times$ MTFEC.KG_RATIO. De la même manière, si aucun décompte des prises au débarquement n’est déclaré, on donne alors LANDED_COUNT comme étant BEST_RETAINED_COUNT $\times$ MTFEC.COUNT_RATIO.

Toutes les données sur les prises, les poids au débarquement et les décomptes par événement de pêche sont ensuite jointes à plusieurs autres données par événement de pêche, y compris l’ID et le nom du bateau, la source des données, le secteur et la zone de pêche. Plusieurs champs présentent les « meilleures » données lorsqu’il y a plusieurs options. BEST_DATE est la date de déchargement lorsqu’il y a une différence de moins de trois mois entre la date de déchargement et la meilleure date de journal de bord disponible (par ordre préférentiel du meilleur événement de pêche, date de fin ou de début ou du meilleur voyage, date de fin ou de début); autrement, il s’agit de la meilleure date figurant dans le journal de bord disponible. La LATITUDE et la LONGITUDE sont, par ordre préférentiel, la latitude/longitude déclarées au début, la latitude/longitude déclarées au milieu ou la latitude/longitude déclarées à la fin. La BEST_DEPTH est calculée comme étant la moyenne de la profondeur au début et à la fin et convertie de brasses en mètres. Ces données sont combinées dans la vue GF_D_OFFICIAL_FE_CATCH_VW2 avec les données supplémentaires sur les événements de pêche ou les sorties de pêche généralement obtenues à partir des journaux de bord des observateurs, ou à partir des journaux de bord des pêcheurs lorsque les journaux des observateurs ou de validation ne sont pas disponibles.

Les tableaux officiels sur les prises alimentent directement le tableau GF_MERGED_CATCH. Lorsqu’il y a des enregistrements en double pour un événement de pêche dans GFFOS et dans PacHarvHL ou PacHarvSable, les enregistrements dans GFFOS ne sont pas intégrés dans GF_MERGED_CATCH.

DÉTAILS SUR L’EXTRACTION DES DONNÉES

Nous avons élaboré un progiciel gfplot pour le logiciel statistique R [@r2018] afin d’automatiser l’extraction des données de ces bases de données de manière cohérente et reproductible. Les fonctions extraient les données à l’aide de requêtes SQL, élaborées avec l’aide de l’unité des données sur les poissons de fond, qui sélectionnent et filtrent des données spécifiques en fonction de l’objectif de l’analyse. Les noms de fichiers SQL mentionnés dans cette section peuvent être consultés [sur GitHub](https://github.com/pbs-assess/gfplot/tree/master/inst/sql] et seront archivés sur un serveur local avec la version finale du présent document.

EXTRACTION DES DONNÉES SUR LES PRISES COMMERCIALES

Nous avons extrait les prises commerciales avec get-catch.sql. Tous les débarquements et les rejets sont extraits par espèce, secteur de pêche, type d’engin et année, et ne sont pas filtrés d’une autre manière.

Nous avons extrait les données sur les prises et l’effort de pêche commerciaux au chalut (à des fins de normalisation ultérieure) en utilisant get-cpue-index.sql, et nous avons filtré les données pour n’inclure que les enregistrements dont les dates de début et de fin sont valides (tableau \@ref(tab:sql-cpue-index)), ce qui comprend les heures de début et de fin établies qui sont utilisées ultérieurement pour calculer l’effort (exprimé en heures). Les prises (kg), l’année, le type d’engin et la zone de gestion des pêches du Pacifique (SGPP) sont extraits pour chaque trait. Le type d’engin, le SGPP et l’année minimale sont donnés à titre d’arguments et sont fixés par défaut au chalut, toutes zones confondues, et en 1996, respectivement.

Les données n’ont pas été filtrées en fonction du succès des traits, qui est enregistré dans la base de données en tant que succès non défini, succès vérifié, mais inconnu, pleinement utilisable, mauvais fonctionnement/dommages, engin perdu ou coup de filet infructueux. Cet élément pourrait être incorporé dans les futures versions du rapport.

\begin{table}[htpb] \centering \caption{Description des filtres appliqués aux requêtes SQL visant à extraire des données sur les prises et l’effort de pêche commerciaux au chalut de fond \texttt{GFFOS.GF_MERGED_CATCH} avec \texttt{get-cpue-index.sql}} \label{tab:sql-cpue-index} {\tabulinesep=1.6mm \begin{tabu}{>{\raggedright\arraybackslash}m{2.8in}>{\raggedright\arraybackslash}m{3.2in}} \toprule Filtres & Justification \ \midrule Filtré par \texttt{END_DATE} \texttt{IS NOT NULL} AND {START_DATE} \texttt{IS NOT NULL} & pour supprimer les enregistrements comportant des dates manquantes \ Filtré par \texttt{YEAR(FE_START_DATE)} = \texttt{YEAR(FE_END_DATE)} and \texttt{FE_END_DATE} > \texttt{FE_START_DATE} & pour supprimer les enregistrements comportant des dates erronées \ \bottomrule \end{tabu}} \end{table}

\vspace{0mm}

Nous avons extrait les données spatiales des CPUE par chalut commercial en utilisant get-cpue-spatial.sql, qui indique la latitude, la longitude, le type d’engin, les prises (kg) et les CPUE (captures totales/effort en kg/heure) pour chaque trait par espèce. Les données sont filtrées pour n’extraire que les enregistrements dont les dates de début et de fin sont valides, pour supprimer les enregistrements dont les valeurs de latitude et de longitude sont erronées et pour inclure uniquement les enregistrements du secteur du chalutage de fond dont les traits sont positifs depuis 2013 après la mise en œuvre de l’empreinte du chalut en 2012 (tableau \@ref(tab:sql-cpue-spatial)).

\begin{table}[htpb] \centering \caption{Description des filtres appliqués aux requêtes SQL visant à extraire des données spatiales des captures par unité d’effort par chalut commercial (kg/h) de \texttt{GFFOS.GF_D_OFFICIAL_CATCH} avec \texttt{get-cpue-spatial.sql}} \label{tab:sql-cpue-spatial} {\tabulinesep=1.6mm \begin{tabu}{>{\raggedright\arraybackslash}m{2.8in}>{\raggedright\arraybackslash}m{3.2in}} \toprule Filtres & Justification \ \midrule Filtré par \texttt{LAT} entre 47.8 et 55 et \texttt{LON} entre -135 et -122 & pour supprimer les enregistrements d’emplacements erronés \ Filtré par \texttt{YEAR(BEST_DATE)} plus grand que 2012 & pour extraire seulement les enregistrements depuis que l’empreinte de la pêche au chalut a été établie \ Filtré par \texttt{YEAR(START_DATE)} = \texttt{YEAR(END_DATE)} et \texttt{END_DATE} > \texttt{START_DATE} & pour supprimer les enregistrements comportant des dates erronées \ Filtré par \texttt{FISHERY_SECTOR} = \texttt{GROUNDFISH TRAWL} & pour n’extraire que les données de la pêche au chalut du poisson de fond \ Filtré par \texttt{ISNULL(LANDED_ROUND_KG,0) + ISNULL(TOTAL_RELEASED_ROUND_KG,0)} > 0 & pour extraire uniquement les enregistrements avec capture positive \ \bottomrule \end{tabu}} \end{table}

\vspace{0mm}

Nous avons extrait les données spatiales sur les CPUE au moyen de lignes et d’hameçons commerciaux à l’aide de la formule get-cpue-spatial-ll.sql, qui indique la latitude et la longitude, le type d’engin, les prises (en pièces) et les années pour tous les événements de pêche (ensembles, en tant qu’unité d’effort) par espèce. Les données sont filtrées pour n’extraire que les enregistrements dont les dates de début et de fin sont valides, pour supprimer les enregistrements dont les valeurs de latitude et de longitude sont erronées et pour n’inclure que les enregistrements dont les prises ne sont pas nulles pour les engins à lignes et hameçons. Les données comprennent tous les enregistrements depuis 2008, après la mise en œuvre du Plan de gestion intégrée du poisson de fond (tableau\@ref(tab:sql-cpue-spatial-ll)). Les CPUE sont représentées par les prises débarquées en pièces par événement de pêche (ensemble). Les rejets ne sont pas inclus dans les CPUE spatiales au moyen de lignes et d’hameçons, car les pièces rejetées ne sont pas enregistrées de façon fiable pour toutes les années. Les noms d’espèces sont donnés comme argument à la fonction gfplot.

\begin{table}[htpb] \centering \caption{Description des filtres appliqués aux requêtes SQL visant à extraire des données spatiales des captures par unité d’effort par chalut commercial (kg/h) de \texttt{GFFOS.GF_D_OFFICIAL_CATCH} avec \texttt{get-cpue-spatial-ll.sql}} \label{tab:sql-cpue-spatial-ll} {\tabulinesep=1.6mm \begin{tabu}{>{\raggedright\arraybackslash}m{2.8in}>{\raggedright\arraybackslash}m{3.2in}} \toprule Filtres & Justification \ \midrule Filtré par \texttt{LAT} entre 47.8 et 55 et \texttt{LON} entre -135 et -122 & pour supprimer les enregistrements d’emplacements erronés \ Filtré par \texttt{YEAR(BEST_DATE)} supérieure ou égale à 2008 & pour extraire seulement les enregistrements depuis 2008 après la mise en œuvre du PGIP \ Filtré par \texttt{YEAR(START_DATE)} = \texttt{YEAR(END_DATE)} et \texttt{END_DATE} > \texttt{START_DATE} & pour supprimer les enregistrements comportant des dates erronées \ Filtré par \texttt{GEAR} IN \texttt{(HOOK AND LINE, LONGLINE, LONGLINE OR HOOK AND LINE)} & pour extraire uniquement les enregistrements de la pêche à la ligne et à l’hameçon \ \bottomrule \end{tabu}} \end{table}

\vspace{0mm}

EXTRACTION DES DONNÉES SUR LES PRISES LORS DES RELEVÉS

Nous avons extrait les données servant à calculer l’indice de la biomasse d’après les relevés get-survey-index.sql. La biomasse autogénérée calculée, l’année et le code d’identification de la série de relevés (SSID) sont filtrés de manière à trouver les enregistrements actifs de la biomasse calculée dans la base de données (tableau \@ref(tab:sql-survey-index)). Les espèces et les codes SSID sont donnés comme arguments à la fonction gfplot.

\begin{table}[htp] \centering \caption{Description des filtres appliqués aux requêtes SQL visant à extraire les données de calcul de l’indice de la biomasse autogénérée d’après les relevés de \texttt{GFBio} avec \texttt{get-survey-index}} \label{tab:sql-survey-index} {\tabulinesep=1.6mm \begin{tabu}{>{\raggedright\arraybackslash}m{2.8in}>{\raggedright\arraybackslash}m{3.2in}} \toprule Filtres & Justification \ \midrule Filtré par \texttt{ACTIVE_IND} 1 & pour extraire uniquement les enregistrements d’indices d’autogénération actifs (utilisables) \ \bottomrule \end{tabu}} \end{table}

\vspace{0mm}

EXTRACTION DE DONNÉES BIOLOGIQUES

Nous avons extrait des données biologiques en utilisant get-survey-samples.sql et get-comm-samples.sql pour des relevés de recherche et des échantillons commerciaux, respectivement. Les enregistrements de tous les échantillons biologiques sont extraits par espèce, y compris les données disponibles sur la longueur, le poids, l’âge et la maturité. Les mesures de longueur standard diffèrent selon l’espèce (par exemple, la longueur du sébaste et de la morue du Pacifique sont enregistrées comme étant la longueur jusqu’à la fourche de la queue, tandis que celle du flétan du Pacifique et de la plie à grande bouche est enregistrée comme étant longueur totale, jusqu’à l’extrémité de la queue. Les données sur la chimère d’Amérique n’ont été filtrées que pour les longueurs enregistrées depuis le museau jusqu’à l’extrémité de la deuxième nageoire dorsale, ce qui est la norme puisque la queue est souvent endommagée, car, pour quelques spécimens, la longueur totale avait été enregistrée).

Les enregistrements comprennent les métadonnées disponibles, y compris sur les secteurs de gestion des pêches du Pacifique, la pêche, le type d’engin, le SSID et le code d’identification du relevé (SID, uniquement pour les données dérivées de relevés de recherche), les types d’échantillonnage durant le relevé et les codes de protocole d’échantillonnage en ce qui concerne les données sur la maturité et sur la détermination de l’âge. Les données sont filtrées selon le TRIP_SUBTYPE_CODE pour qu’on puisse extraire les échantillons prélevés durant les relevés (tableau \@ref(tab:sql-surv-samp)) ou les échantillons commerciaux (tableau \@ref(tab:sql-comm-samp)).

Certaines prises des relevés ou prises commerciales sont jugées inutilisables aux fins d’analyse. Par exemple, lorsque l’engin est perdu, défectueux ou endommagé ou qu’une partie ou la totalité de la récolte est perdue, les données complètes sur les prises ne sont pas disponibles, et les données partielles peuvent ne pas être représentatives des prises totales. Les données relatives aux prises inutilisables sont exclues du présent rapport.

En outre, les échantillons sont désignés en fonction de l’une des trois descriptions d’échantillons fondées sur la combinaison de deux codes relatifs aux protocoles d’échantillonnage : SPECIES_CATEGORY_CODE (tableau \@ref(tab:spp-cat)) et SAMPLE_SOURCE_CODE (tableau \@ref(tab:samp-source)). Les échantillons peuvent être désignés comme 'unsorted samples', lorsque des données ont été recueillies pour tous les spécimens de l’échantillon, ou 'sorted samples', lorsque les spécimens ont été triés ou sélectionnés en 'keepers', qui ont été échantillonnés, et en 'discards', qui n’ont pas été échantillonnés :

  1. Les spécimens avec un SPECIES_CATEGORY_CODE de 0 font partie de la catégorie d’espèces inconnues et ne sont pas utilisables. Ceux qui ont un SPECIES_CATEGORY_CODE de 1 (non trié) et un SAMPLE_SOURCE_CODE de 0 (inconnu) ou 1 (non trié), ou un SPECIES_CATEGORY_CODE de 5 (restant) ou 6 (tête de poisson seulement) et un SAMPLE_SOURCE_CODE de 1 (non trié) sont classés comme étant 'unsorted'.

  2. Les spécimens avec un SAMPLE_SOURCE_CODE de 2 (poisson réglementaire) et un SPECIES_CATEGORY_CODE de 1 (non trié), 2 (trié) ou 3 (poisson réglementaire), ou avec un SPECIES_CATEGORY_CODE de 3 (poisson réglementaire) et un SAMPLE_SOURCE_CODE de 1 (non trié) sont classés comme étant des 'keepers'.

  3. Les spécimens avec un SPECIES_CATEGORY_CODE de 4 (rejet) et un SAMPLE_SOURCE_CODE de 1 (non trié) ou 3 (rejet), ou un SAMPLE_SOURCE_CODE de 3 (rejet) et unSPECIES_CATEGORY_CODE` de 1 (non trié) sont classés comme étant des 'discards'.

Dans le rapport de synthèse, nous n’incluons que des échantillons biologiques non triés. Les données sont également filtrées par SAMPLE_TYPE_CODE pour qu’on n’extraie que des échantillons totaux ou aléatoires et qu’on exclue les échantillons sélectionnés selon des critères particuliers.

Les données sur l’âge extraites à l’aide des demandes d’échantillons biologiques sont filtrées par AGEING_METHOD_CODE pour ne sélectionner que les méthodes de détermination de l’âge actuelles vérifiées par le laboratoire de détermination de l’âge de la Station biologique du Pacifique afin d’éliminer les méthodes expérimentales de détermination de l’âge qui peuvent également être enregistrées dans la base de données (tableau \@ref(tab:aging-method-table)).

\vspace{0mm}

Les codes de maturité sont attribués au moment de l’échantillonnage selon une convention choisie. Les différentes conventions affichent des échelles et des classifications différentes adaptées aux espèces ou groupes d’espèces. Nous avons travaillé avec le personnel chargé des relevés, l’équipe de collecte des données et des biologistes sur les divers taxons pour sélectionner les codes à partir desquels un poisson est considéré comme étant 'mature' afin d’attribuer un statut de maturité à chaque spécimen en fonction d’une combinaison de la convention de maturité, du code de maturité et du sexe (tableau \@ref(tab:maturity-table)).

Les données de précision sur la détermination de l’âge sont extraites au moyen de get-age-precision.sql. Les données sont filtrées pour n’intégrer que les enregistrements pour lesquels une lecture secondaire (de précision) a été effectuée par un technicien différent en plus de la lecture primaire (tableau \@ref(tab:sql-age-precision)).

\begin{table}[htpb] \centering \caption{Description des filtres appliqués aux requêtes SQL visant à extraire des données sur les échantillons des relevés de recherche de GFBio avec \texttt{get-survey-samples.sql}.} \label{tab:sql-surv-samp} {\tabulinesep=1.6mm \begin{tabu}{>{\raggedright\arraybackslash}m{2.8in}>{\raggedright\arraybackslash}m{3.2in}} \toprule Filtres & Justification \ \midrule Filtré par \texttt{TRIP_SUBTYPE_CODE} \texttt{2, 3} (voyages de recherche ) & pour extraire uniquement les données de recherche \ Filtré par \texttt{SAMPLE_TYPE_CODE} \texttt{1, 2, 6, 7, 8} & pour extraire uniquement les enregistrements des échantillons de type 'random' ou 'total' \ Filtré par \texttt{SPECIES_CATEGORY_CODE} \texttt{NULL, 0, 1, 3, 4, 5, 6, 7} & pour supprimer les échantillons triés selon des critères inconnus \ Filtré par \texttt{SAMPLE_SOURCE_CODE} \texttt{NULL, 1, 2, 3} & pour extraire les échantillons triés et non triés en vue d’une filtration ultérieure pour l’analyse souhaitée (prélèvement d’échantillons des contenus stomacaux) \ \bottomrule \end{tabu}} \end{table}

\clearpage

\begin{table}[htpb] \centering \caption{Description des filtres appliqués aux requêtes SQL visant à extraire des données sur les échantillons commerciaux de GFBio avec \texttt{get-comm-samples.sql}.} \label{tab:sql-comm-samp} {\tabulinesep=1.6mm \begin{tabu}{>{\raggedright\arraybackslash}m{2.8in}>{\raggedright\arraybackslash}m{3.2in}} \toprule Filtres & Justification \ \midrule Filtré par \texttt{TRIP_SUBTYPE_CODE} \texttt{2, 3} (voyages de recherche) & pour n’extraire que des données sur les prises commerciales \ Filtré par \texttt{SAMPLE_TYPE_CODE} \texttt{1, 2, 6, 7, 8} & pour extraire uniquement les enregistrements des échantillons de type 'random' ou 'total' \ Filtré par \texttt{SPECIES_CATEGORY_CODE} \texttt{NULL, 0, 1, 3, 4, 5, 6, 7} & pour supprimer les échantillons triés selon des critères inconnus \ Filtré par \texttt{SAMPLE_SOURCE_CODE} \texttt{NULL, 1, 2, 3} & pour extraire les échantillons triés et non triés en vue d’une filtration ultérieure pour l’analyse souhaitée (prélèvement d’échantillons des contenus stomacaux)\ \bottomrule \end{tabu}} \end{table}

spp_cat <- readr::read_csv(here::here("report/report-rmd/tables/spp-category.csv"))
spp_cat$`Species Category Description` <-
 gfplot:::firstup(tolower(spp_cat$`Species Category Description`))
spp_cat$`Species Category Description` <-
 gsub("-", "--", spp_cat$`Species Category Description`)
spp_cat$`Species Category Description` <-
 gsub("unk\\.", "unknown", spp_cat$`Species Category Description`)
csasdown::csas_table(spp_cat, caption = "Tableau de recherche des codes de catégories d’espèces, qui décrit les protocoles d’échantillonnage au niveau des prises.")
samp_source <- readr::read_csv(here::here("report/report-rmd/tables/sample-source.csv"))
samp_source$`Sample Source Description` <-
 gfplot:::firstup(tolower(samp_source$`Sample Source Description`))
csasdown::csas_table(samp_source, caption = "Tableau de recherche des codes de sources des échantillons, qui décrit les protocoles d’échantillonnage au niveau de l’échantillon.")
#meta <- gfsynopsis::get_spp_names()
f <- system.file("extdata", "ageing_methods.csv", package = "gfplot")
age_methods <- read.csv(f, stringsAsFactors = FALSE, strip.white = TRUE)
#age_methods$type <- NULL
names(age_methods) <- tolower(names(age_methods))
age_methods$species_common_name <- tolower(age_methods$species_common_name)
#age_methods <- left_join(age_methods, meta, by = "species_common_name")
age_methods$species_common_name <- gfsynopsis:::first_cap(age_methods$species_common_name)
# age_methods <- filter(age_methods, type == "A")
age_methods$species_common_name <- gsub("Rougheye/blackspotted Rockfish Complex", 
 "Rougheye/Blackspotted", age_methods$species_common_name)
age_methods$species_science_name <- gsub(" complex", "", age_methods$species_science_name)
age_methods$species_science_name <- gsub("sebastes aleutianus", "s. aleutianus",
 age_methods$species_science_name)
age_methods <- filter(age_methods, !is.na(species_ageing_group))
age_methods <- select(age_methods, species_common_name, species_science_name,
 species_code, ageing_method_codes)
age_methods <- arrange(age_methods, species_code)
age_methods$species_science_name <- paste0("*",
 gfplot:::firstup(age_methods$species_science_name), "*")
age_methods <- filter(age_methods, ageing_method_codes != "na")
age_methods <- filter(age_methods, !is.na(species_code))
names(age_methods) <- c("Common name", "Scientific name", "Species code", "Ageing codes")
age_methods$`Common name` <- gsub("C-o Sole", "C-O Sole", 
 age_methods$`Common name`)

age_methods <- age_methods[age_methods$`Common name` != "Soupfin Shark", ]
age_methods$`Common name` <- rosettafish::en2fr(age_methods$`Common name`, french)
if (french) {
  age_methods$`Common name` <- sub("aiguillat commun du Pacifique Nord", "aiguillat commun du Pac. N.", age_methods$`Common name`)
  names(age_methods)[1:4] <- rosettafish::en2fr(names(age_methods)[1:4], TRUE)
  age_methods$`Nom commun` <- purrr::map_chr(age_methods$`Nom commun`, gfsynopsis:::first_cap)
}

\clearpage

csasdown::csas_table(age_methods, caption = "Codes des méthodes de détermination de l’âge de GFBio considérées comme étant valides dans l’ensemble du document de synthèse sur les espèces de poissons de fond de la Colombie-Britannique. Les codes de méthodes de détermination de l’âge acceptés pour chaque espèce ont été sélectionnés avec l’aide du laboratoire de sclérochronologie de la SBP. 1 = 'Otolith Surface Only', 3 = 'Otolith Broken and Burnt', 4 = 'Otolith Burnt and Thin Sectioned', 6 = 'Dorsal Fin XS', 7 = 'Pectoral Fin', 11 = 'Dorsal Spine', 12 = 'Vertebrae', 16 = 'Otolith Surface and Broken and Burnt', 17 = 'Otolith Broken and Baked (Break and Bake)'.")

\clearpage

f <- system.file("extdata", "maturity_assignment.csv", package = "gfplot")
mat <- read.csv(f, stringsAsFactors = FALSE, strip.white = TRUE)
names(mat) <- tolower(names(mat))
names(mat) <- gsub("_", " ", names(mat))
names(mat) <- gfplot:::firstup(names(mat))
mat$`Maturity convention maxvalue` <- NULL
mat <- rename(mat, `Maturity convention description` = `Maturity convention desc`,
 `Mat. conv. code` = `Maturity convention code`)
mat$Sex <- if_else(mat$Sex == 1, "M", "F")

mat <- filter(mat, !`Maturity convention description` %in% "HAKE (AMR simplified)")
mat <- filter(mat, !`Maturity convention description` %in% "HAKE (1977+)")
mat <- filter(mat, !`Maturity convention description` %in% "HAKE (U.S.)")
mat <- filter(mat, !grepl("SABLEFISH", `Maturity convention description`))

csasdown::csas_table(mat, caption = "Codes de la convention sur la maturité ('Mat. conv. code'), descriptions de la convention sur la maturité, sexe et valeur de la convention sur la maturité à laquelle un poisson est considéré comme étant mature aux fins du rapport de synthèse. Il est à noter que le poisson peut être considéré comme étant mature à d’autres valeurs de la convention sur la maturité, en particulier lors des évaluations des stocks lorsque d’autres valeurs sont choisies pour des raisons particulières.")

\begin{table}[htp] \centering \caption{Description des filtres appliqués aux requêtes SQL pour extraire tous les enregistrements de l’âge ayant fait l’objet d’une lecture dans le cadre d’un essai de précision en vue de vérifier la précision de la méthode de détermination de l’âge de {GFBio} avec \texttt{get_age_precision.sql}} \label{tab:sql-age-precision} {\tabulinesep=1.6mm \begin{tabu}{>{\raggedright\arraybackslash}m{2.8in}>{\raggedright\arraybackslash}m{3.2in}} \toprule Filtres & Justification\ \midrule Filtré par \texttt{AGE_READING_TYPE_CODE} 2, 3 & pour extraire les lectures lors des essais primaires et de précision \ \bottomrule \end{tabu}} \end{table}

## If wanting .docx tables to work:
# pdf <- knitr:::is_latex_output()
# read.csv(here::here("report/report-rmd/tables/sql-comm-samp.csv"),
#  stringsAsFactors = FALSE, strip.white = TRUE) %>%
#  csas_table(format = if (pdf) "latex" else "pandoc", escape = FALSE) %>%
#  kableExtra::column_spec(1, width = "2.8in") %>%
#  kableExtra::column_spec(2, width = "3.2in")

ACCESSIBILITÉ DES DONNÉES

Les données dérivées des relevés synoptiques au chalut de fond sont disponibles sur le portail des données ouvertes du gouvernement du Canada. Les données dérivées des relevés à la ligne et à l’hameçon sont en cours de préparation en vue de leur téléchargement sur le portail de données ouvertes. Les données sur les prises commerciales seront téléchargées dans un format compressé selon la Loi sur la protection des renseignements personnels.

Les demandes de données détenues par la région du Pacifique du MPO peuvent être faites par l’intermédiaire de Statistiques des captures dans la région du Pacifique.



pbs-assess/gfsynopsis documentation built on March 26, 2024, 7:30 p.m.