We use cookies to distinguish you from other users and to provide you with a better experience on our websites. Close this message to accept cookies or find out how to manage your cookie settings.
To save content items to your account,
please confirm that you agree to abide by our usage policies.
If this is the first time you use this feature, you will be asked to authorise Cambridge Core to connect with your account.
Find out more about saving content to .
To save content items to your Kindle, first ensure no-reply@cambridge.org
is added to your Approved Personal Document E-mail List under your Personal Document Settings
on the Manage Your Content and Devices page of your Amazon account. Then enter the ‘name’ part
of your Kindle email address below.
Find out more about saving to your Kindle.
Note you can select to save to either the @free.kindle.com or @kindle.com variations.
‘@free.kindle.com’ emails are free but can only be saved to your device when it is connected to wi-fi.
‘@kindle.com’ emails can be delivered even when you are not connected to wi-fi, but note that service fees apply.
Much of political science rests on assumptions about how policy makers and citizens behave. However, questions remain about how public policy can improve the government–citizen relationship. In this research note, we present behavioural insights (BI) as one way to address this gap. First, we argue that BI can be strategically used both to alleviate administrative burdens and to enhance citizen experience. Second, we argue that BI interventions can assist in several stages of the policy process, strengthening causal inferences about policy efficacy. Third, we present original data from Canada's ongoing experimentation with BI across multiple jurisdictions and areas of public policy. We conclude by acknowledging the myriad pathways through which BI research can engage with public policy to support the enhancement of citizen-oriented service delivery.
Nery Delgado was a key figure in the development of archaeological methods applied to prehistoric sites in Portugal within European archaeology at the end of the nineteenth century. He was the first in Europe to use a grid in his 1879–1880 excavation at the Casa da Moura cave (Óbidos, Portugal). The grid divided the cave into twenty-eight sectors excavated independently and, in each, all archaeological and bioanthropological finds were documented and marked with labels recording depth and excavation units. The 3D information obtained by Nery Delgado features among late nineteenth-century attempts at recording contextual data, a precursor of archaeological methods of data gathering that are used worldwide today. Nery Delgado was, thus, a pioneer of contemporary archaeological excavation methods.
Un chercheur qui se destine aujourd’hui à travailler sur l’autisme peut rapidement être dérouté par les données de la littérature. Qu’il s’agisse de l’évolution nosologique depuis Kanner jusqu’aux TSA du DSM V, de la flambée épidémiologique multipliant la prévalence par 20 en 20 ans ou des multiples hypothèses étio-pathogéniques, tous les ingrédients sont réunis pour décourager les meilleures volontés en dépit d’un nombre de publications toujours croissant autour de cette pathologie dont les contours cliniques fluctuants n’en suscitent pas moins un engouement, une médiatisation, et des investissements financiers importants. Les progrès des techniques d’analyse du génome permettent d’identifier de plus en plus d’anomalies génétiques, mais leur signification clinique ne va pas toujours de soi et suppose de nouvelles façons d’appréhender notre connaissance du génome. Si les études de grands groupes d’enfants autistes ne sont pas parvenues à identifier quelques gènes « majeurs », c’est soit qu’il n’en existe pas, soit que ces groupes comportent une hétérogénéité sous-jacente à leur apparente homogénéité clinique qui conduit à s’interroger sur les outils cliniques d’inclusion utilisés dans ces études. On peut aussi aborder le problème différemment. Plusieurs gènes impliqués dans des pathologies neurodéveloppementales ont été découverts à partir de familles informatives ou de quelques cas étudiés de façon approfondie. Cette démarche restitue au clinicien un rôle capital dans l’observation des manifestations cliniques qui aident progressivement à dessiner des configurations pertinentes. Lorsque un gène est identifié (SHANK3, SLC6A8…), l’observation minutieuse des patients rend accessible la description d’un « phénotype développemental » spécifique. Lorsque ce n’est pas le cas, l’exploration d’une famille informative est l’occasion de tester des hypothèses quant aux contours cliniques du trouble exploré et sa présentation sous la forme de phénotypes mineurs chez des apparentés. Si les constructions cliniques comportent une part d’illusion nécessaire pour orienter le travail de recherche, le tableau proposé par Kanner, distinct des nombreux TED non spécifiés rencontrés dans nos consultations, mérite probablement d’être encore étudié comme tel.
Depuis une trentaine d’années, dans le but d’aider le clinicien à décider des soins appropriés à des circonstances cliniques spécifiques, des recommandations professionnelles ont été développées de façon méthodique. Elles visent à améliorer la qualité des soins en limitant la variabilité inexpliquée des soins et en intégrant les progrès issus de la recherche clinique. Il existe à l’heure actuelle de nombreuses recommandations professionnelles dans tous les troubles psychiatriques qui sont élaborées par des agences ou sociétés savantes nationales et internationales. D’un point de vue méthodologique, nous retrouvons deux grands types de recommandations professionnelles : celles fondées sur une gradation du niveau de preuve disponibles ou « Evidence-Based Guidelines » et celles fondées sur des avis formalisés ou des consensus d’experts ou « Consensus-Based Guidelines ». Chacune de ses méthodologies présente ses avantages et ses limites. Le développement exponentiel de ces recommandations rend difficile le choix du clinicien quant à quelle recommandation professionnelle utiliser en pratique clinique. Une meilleure compréhension de ces aspects méthodologiques pourrait permettre de faciliter ce choix et favoriser l’adhésion des psychiatres à leur utilisation.
Naturalistic data are a useful source for language acquisition research. Recently, the emphasis has been placed on using denser corpora, in order to capture a more accurate picture of child language development. However, working with large amounts of data raises resource issues, since it is time-consuming to record and to transcribe. In this article, I focus on what would be the ideal duration of a naturalistic recording for it to be considered a representative enough sample of children's linguistic behaviours to observe the acquisition of words and sounds. Some of the results suggest that 30 minutes of recording may be enough to capture these specific developments, but these results are discussed in the perspective of what an ideal session could be.
Introduction. The fruit types such as raspberries (Rubus
idaeus), cherries (Prunus cerasus), blackberries
(Rubus fructicosus), blackthorns (Prunus spinosa) and
aronia (Aronia melanocarpa) are very common in Serbia. These fruit
species are a valuable source of antioxidants. The goal of our work was to evaluate the
antioxidant activities of ethyl acetate extracts of these five berries and to establish
possible correlation between the content of anthocyanin and the antioxidant activity.
Materials and methods. To determine antioxidant activity of the selected
fruits, the DPPH (2,2-diphenyl-1-picrylhydrazyl) radical scavenging activity, the ABTS
(2,2-azinobis-3 ethyl benzothiazoline-6-sulfonic acid) cation decolorization activity, the
FRAP (ferric reducing antioxidant power), and the TRP (total reducing power) were
measured. Results. The four methods selected for our assays showed strong
antioxidant properties for blackberry samples. The total anthocyanin content was estimated
using the pH differential method. The highest amount of anthocyanin was found in
blackberry samples [(1063.53 ± 0.01) mg·kg–1 fresh fruit], while the lowest was in
raspberry samples [(180.84 ± 0.02) mg·kg–1 fresh fruit]. The correlation between the
content of anthocyanin and antioxidant activity was established using regression analysis.
The highest correlation was found between total reducing power and total anthocyanin
(r = 0.97, p < 0.05). Hierarchical cluster analysis
divided selected fruit species into two statistically significant clusters.
Conclusion. Our results confirmed that analyzed berries are rich in
anthocyanins. A strong correlation among different assays as well as with anthocyanin
content was observed. Cluster analysis can be used in food science, to classify different
food types into groups, based on similarity among the results.
The recent publication of the entirety of Max Weber’s methodological writings in an English translation by Bruun and Whimster offers an opportunity to reassess the question how far he himself consistently adhered to his own precepts about Wertfreiheit and the construction and deployment of ideal types. It is argued that Weber himself saw the problem not as a logical but as a purely psychological one, and that he could therefore justify the apparent contradictions between his precepts and his practice as either deliberate exercises in something other than Wissenschaft or, in his wissenschaftlich writings, as lapses capable in principle of correction. In conclusion, it is briefly suggested that Weber would regard the major advances made in the human behavioural sciences since his lifetime as generally consistent with his own methodology.
PubMed lists over 6,000 references (700 reviews) on unintentional falls in older adults. This article traces key methodological milestones in the application of epidemiologic methods since the earliest publications in the late 1940s. Within the context of advances in case definition, sampling, measurement, research design, and statistical analysis, the article reviews estimates of frequency of occurrence, risk factor associations, morbidity and mortality consequences, demonstration of the multiple risk factor theory of falls using fall prevention interventions, and the challenges of fall risk prediction models. Methodological explanations are provided for observed heterogeneities, and the case is presented for moving beyond undifferentiated lists of risk factors by focusing on balance and gait as the factors through which the mechanistic effects of distal risk factors can be understood. Moreover, the case is made to advance our statistical analyses by looking at interactions among intrinsic risk factors and between intrinsic, extrinsic, and environmental factors.
The debate regarding paradigms and investigation methods is at least partially responsible for the fragmentation of gerontologocial knowledge. First, the article presents arguments in favour of methodological pluralism as a research designed to facilitate the integration of knowledge and innovation. The main goal of methodological pluralism is to reconcile different approaches by combining a number of observation and data-collection scenarios within the same study. After presenting the arguments in favour of methodological pluralism and identifying the integration methods that can be applied to study results already obtained, the author proposes a taxonomy of multiple research strategies that may be utilized in the same study. He specifically discusses: pseudo-triangulation, parallel and sequential triangulation, composite methods, mixed methods and the multi-method approach.
The Aging in Manitoba (AIM) project includes nearly 9,000 seniors who have been interviewed. Three independent cross-sectional samples (i.e. 1971, 1976, 1983) were subsequently followed (1983–1984, 1990), producing cross-sectional and longitudinal data. A major goal of this paper was to examine non-response over time and representativeness of the panel of AIM survivors. This involved analysis of non-response, calculations of completion/response rates, and comparisons of demographic variables across the AIM sample and the broader Manitoba and Canadian populations. Non-response was very low (4.6% in 1983–1984, 5.0% in 1990) and did not appear to be dependent on such factors as location, gender, education level, or nationality descent. The 95.0 per cent completion rate compares favourably with other longitudinal studies, demonstrating the value of employing rigorous tracking procedures. These findings suggest that attempts to minimize bias and selective attrition in the AIM study have been successful.
Data from the Canadian Labour Force Survey (1997) reveal that relatively few mid-life women offer ill health as a reason for leaving their job or downshifting to part-time employment, implying that the role of ill health may be inconsequential in effecting changing patterns in mid-life women's labour force activity. In contrast, interviews with 30 mid-life women (aged 40 to 54 years) illustrate that, although they do not offer illness as their main reason for leaving their job or working part-time, health is a determining factor. This research also maps the complex relationship between work and ill health, showing that stressful working conditions (due to funding cuts and policy changes) affected the mental and physical health of this group of mid-life women, which, in turn, influenced their decision to change their labour force activity. The author concludes that policy makers must recognize that ill health may be under-reported among mid-life women in large surveys and that research is needed that specifically examines women's working conditions as they relate to health. Such research should not be based solely on large surveys but must also include qualitative studies that capture women's experiences.
Une étude de la distribution spatiale épiphytique sur une plante aquatique commune des sources karstiques méditerranéennes a été effectuée à l'échelle du microhabitat, sur différentes feuilles d'Apium nodiflorum. Des découpages longitudinaux et transversaux sur toute la longueur du foliole ont été réalisés et analysés séparément. Hormis de fortes variations liées à chaque individu macrophytique, les premiers résultats, obtenus sur 48 folioles, prélevés en
automne et en été, révèlent l'existence d'une microrépartition effective et non stochastique des epiphytes sur les différentes parties architecturales de la plante-hôte, ainsi qu'une homogéneité des communautés algales sur la hauteur totale de la plante. Cette approche méthodologique a permis de mettre en évidence des microzones représentatives de la richesse spécifique et de la biomasse totale du peuplement épiphytique. Cette approche pourrait faire l'objet d'études élargies à d'autres macrophytes et être utilisée par les limnologues comme outil d'observation du peuplement épiphytique en rivières.
La critique d’ad hocité est courante en économie, mais elle reste confuse, reposant aussi bien sur des arguments d’ordre heuristique (fondements microéconomiques), que sur des arguments d’ordre empirique (ajustement d’une théorie aux faits). Si l’épistémologie d’inspiration poppérienne fourni des définitions utiles, quoique discutables, de l’ad hocité, une revue de quelques commentaires récents révèle un autre sens attribué par les économistes: une hypothèse qui manque de fondements empiriques tout en étant essentielle à la dérivation des certaines conclusions. Nous cherchons ensuite à déterminer dans quelle mesure les théories de la croissance endogène sont exposées à la critique d’ad hocité. Tout d’abord, s’il est impossible d’affirmer que certaines hypothèses communes à tous les modèles (rendements constants dans la production et forme des fonctions d’utilité) sont ad hoc d’un point de vue empirique ou heuristique, la véritable critique qui peut leur être adressée relève plutôt d’un manque de réalisme. Ensuite, la tentative d’ajustement du modèle néoclassique à l’absence de convergence internationale illustre la difficile application de l’ad hoc dans son acception empirique. Enfin, l’utilisation de l’agent représentatif dans les modèles de croissance en concurrence imparfaite est évaluée à la lumière d’une définition heuristique de l’ad hocité.
La végétation de 12 cours d'eau répartis sur le territoire français a été étudiée selon le protocole standardisé d'échantillonnage «Milieu Et Végétaux aquatiques fixés» (M.E.V.) pour tester ce procotole. Le traitement des données par rivière puis pour l'ensemble des séquences étudiées permet d'établir des typologies floristiques. De façon préliminaire, le déterminisme de distribution
des phytocénoses est envisagé. Les différences majeures s'expriment à l'amont en fonction de la géologie et de la minéralisation, des conditions d'écoulement et d'ombrage. Une homogénéisation s'effectue vers l'aval, à la faveur de l'eutrophisation et de l'accroissement des dimensions du cours d'eau. La dimension éco-régionale s'exprime d'abord au niveau de la géologie, et secondairement en fonction du climat (atlanticité) et des différences entre rivières de plaine et de piémont. Les résultats sont discutés en vue d'une amélioration du protocole et de la possibilité d'application de la notion de phytocénoses de référence.
European hake Merluccius merluccius is the main commercial demersal species in the Gulf of Lions (Northwestern mediterranean). This fish is exploited by French and Spanish trawler fleets and by small-scale fisheries using gillnets and longlines. Data on landings and the demography of catches by type of gear are now available for the period 1988–1991. The assessment of the hake stock was carried out using methods of virtual population analysis (VPA), or cohort analysis, based respectively on mean pseudocohorts and cohorts by age. The results of these VPA were then analysed and compared from a methodological point of view. The general results have confirmed previous studies with regard to the level of exploitation of the species. The two methods gave quite similar results for fishing mortality rates and for mean biomass. The maximal fishing mortality rate was observed at age 4, but it was already high at age 1, due to the exploitation of juveniles by trawlers. The mean biomass was about 7 000 tons. The high values for turnover (about 80% or more) and for the maximal biomass/mean biomass ratio (23% or more) indicated a high level of exploitation but did not seem high enough to be dangerous for the stock. Yield-per-recruit analysisshowed also that the present level of exploitation is far above the optimal sustainable level.
A holistic perspective of the last 150 years of studies in ocean biology reveals two distinct scientific activities. The first involved scientists in many expeditions from the "Challenger" in the 1870s to the Indian Ocean Expedition in the 1960s. These studies ended with what Ray (1970) has called the "Marine Revolution". This was caused by the need for marine biologists to pay much more attention to practical problems of fisheries, pollution, undersea mining and in particular the biology of the 200-mile economic zone which was established by many maritime nations in the 1970s. The new biological science of the oceans moved from largely descriptive ecology into the field of dynamic processes, holistic models, ocean monitoring and networking of different national and international organizations. Further progress in the biological sciences is needed in these areas, particularly in determining the canying capacity of the seas and oceans and the ecological consequences of removing manne species of fish from the oceans as part of the annual industrial harvest. These problems are only likely to be solved by a consideration of the properties of entire ecosystems, which are often different, to that expected, from the sum of the determinate parts.
Les proliférations de macrophytes atteignent désormais les eaux courantes et entraînent de nombreuses nuisances. La compréhension de ce phénomène nécessite une étude approfondie des peuplements végétaux en place et des paramètres d'environnement qui les conditionnent, afin de déterminer les phytocénoses de référence et leurs séquences de dégradation. Lors de cette étude, vingt et un cours d'eau, situés en tête de bassin versant et représentatifs de la diversité géologique de la Lorraine, ont été prospectés. Le choix des stations d'étude a été réalisé en fonction d'un découpage abiotique, définissant des zones de cours d'eau homogènes au niveau de la géologie, la pente et la largeur. La pertinence de l'utilisation de la géologie (classes de perméabilité) comme premier critère hiérarchique de classification des cours d'eau est confirmée par les résultats de cette étude. Les analyses chimiques et les relevés morphométriques effectués sur chaque station d'étude ont conduit à individualiser quatre grands types de cours d'eau (sur granites, sur grès, sur calcaires et sur marnes), dont la végétation aquatique a été inventoriée. Des successions végétales typiques en fonction de la position amont-aval ont été observées. Les notions de milieux naturellement fragiles et d'espèces « à risque de prolifération » ont été affinées. Cette étude constitue la base d'une typologie des cours d'eau par la végétation aquatique.
L'estimation de la qualité des cours d'eau, à la fois en terme de milieu physique et de qualité de l'eau, est une nécessité croissante. Les « indices macrophytes » peuvent être utilisés en complémentarité de méthodes plus usuelles, analyses d'eau ou indices biotiques. Certains indices macrophytes proposés par la littérature ont été appliqués et testés sur 5 rivières du Nord de la France, correspondant à des substrats géologiques et à des situations de pollution et/ou de trophie contrastées. Ce sont : le Diagnostic Phytoécologique à partir des indices d'Ellenberg, le Plant Score de Harding, l'Indice Trophique de Newbold & Holmes, le Taux de Dommage de Haslam. Une comparaison avec les analyses d'eau a été réalisée. Les diagnoses sont globalement concordantes, mais leur acuité est variable. Les listes d'espèces fournies par les auteurs sont en général très incomplètes et éludent de nombreux problèmes de taxonomie. Le niveau de bioindication (notion de « trophie », paramètre écologique analytique comme les orthophosphates, ...) en fonction de l'état physique du cours d'eau, est rarement précisé. Les indices proposés dans les trois premières méthodes citées sont rarement étayés par l'analyse détaillée des distributions espèces/facteurs (profils écologiques). La méthode de Haslam présente un caractère intégrateur marqué fondé sur l'écologie des cours d'eau, même si l'aspect floristique est incomplet. Son application en France est obérée par la méconnaissance des phytocénoses de référence et des séquences de dégradation, et par l'absence d'une grille précise de trophie-substrat géologique nécessaire pour l'estimation des altérations de la qualité de l'eau. Les méthodes de Harding et de Newbold & Holmes sont de mise en œuvre plus simple et donnent des indications assez cohérentes. Malgré ces réserves, la définition d'indices semble intéressante et correspond à une demande des gestionnaires. Des propositions d'amélioration des méthodes existantes, ainsi que des éléments pour l'élaboration d'un indice synthétique sont présentés.
L'expérimentation, menée au cours d'un cycle annuel sur deux secteurs différents de la rivière Charente à l'aval d'Angoulème, a pour objectif de quantifier le taux de dénitrification pour les besoins d'un modèle hydrologique nitrates.La méthode de blocage du stade final de la réaction de dénitrification à l'acétylène a permis le dosage du protoxyded'azote à partir de cloches à sédiment et d'un conteneur immergé en pleine eau.Les résultats montrent que, si ce phénomène n'a pas lieu dans la tranche d'eau, la vitesse de dénitrification à l'interfaceeau-sédiment, facteur K exprimé en mg de nitrates dénitrifiés par m2 par jour, peut être considérée comme constante et indépendante des variations en température, en teneurs en nitrates et oxygène dissous de l'interface.Sur un cycle annuel, en l'absence d'influence marquée des paramètres environnementaux, le taux moyen de dénitrification dans la rivière Charente est de 682 mg de NO3- /m2/ j.La comparaison des mesures obtenues par cette méthode à celles évaluées par le calcul (bilan azoté) montre qu'il estpréférable d'estimer le taux de dénitrification par dosage direct plutôt qu'à partir de l'analyse des formes de l'azote(disparition du NO3- ou défaut du bilan).
Nous rapportons les résultats d'une étude nationale sur l'utilisation des électrochocs dans les services publics de Psychiatrie: 1,3% des patients hospitalisés bénéficient de cette prise en charge, mais plus d'un tiers des services n'y ont jamais recours. Les indications sont conformes aux données de la littérature internationale. La méthodologie utilisée reste rudimentaire: 21% des services de Centre hospitalier spécialisé n'ayant que rarement ou jamais recours à l'anesthésie générale. Le matériel utilisé est obsolète et ne permet pas de tenir compte des améliorations techniques apportées ces dernières années. Les services de psychiatrie diffèrent également dans leurs pratiques selon qu'ils appartiennent ou non à un Centre hospitalier spécialisé.