Abstract : | Η πληθώρα των πληροφοριών που είναι διαθέσιμες στο διαδίκτυο στη σημερινή ψηφιακή εποχή έχει οδηγήσει στην ανάπτυξη προηγμένων μεθόδων εξαγωγής και ανάλυσης δεδομένων. Η συλλογή δεδομένων από το διαδίκτυο, γνωστή και ως «σέρφινγκ δεδομένων», είναι ένα κρίσιμο βήμα σε αυτή τη διαδικασία, καθώς επιτρέπει στους ερευνητές να συγκεντρώνουν σημαντικά δεδομένα από διαδικτυακές πηγές. Ωστόσο, ένας σημαντικός αριθμός σημαντικών εφαρμογών και εργαλείων, όπως Μηχανές Αναζήτησης, Εργαλεία για την Επιστημονική Βιβλιογραφία, Συστήματα Προτάσεων και Παρακολούθησης της Επιστήμης, εξαρτώνται από την ταξινόμηση των επιστημονικών δημοσιεύσεων που συμμορφώνονται με τις ταξινομίες των Πεδίων της Επιστήμης. Οι χρηματοδότες, οι εκδότες, οι ακαδημαϊκοί, οι επιχειρήσεις και άλλοι ενδιαφερόμενοι μπορούν επίσης να χρησιμοποιούν αυτές τις ταξινομίες για να οργανώσουν καλύτερα την επιστημονική βιβλιογραφία, να υπολογίσουν δείκτες επιπτώσεων κατά μήκος των επιστημονικών διαδρομών επιπτώσεων και να εντοπίσουν νέες περιοχές που μπορούν να υποστηρίξουν την ανάπτυξη πολιτικής για την Επιστήμη, την Τεχνολογία και την Καινοτομία. Εξαιτίας αυτού, πολλές ταξινομικές σχηματοποιήσεις βρίσκονται σήμερα σε χρήση για τις επιστημονικές δημοσιεύσεις, υποστηρίζοντας ένα σημαντικό μέρος της αξιολόγησης της έρευνας. Δυστυχώς, πολλές από τις τρέχουσες σχηματοποιήσεις είναι εξειδικευμένες, αποτελούνται από λίγα επίπεδα λεπτομέρειας και απαιτούν συνεχή χειρωνακτική εργασία, κάτι που καθιστά δύσκολη την παρακολούθηση του γρήγορα μεταβαλλόμενου επιστημονικού τοπίου καθώς προκύπτουν νέα ερευνητικά θέματα. Επιπλέον, τα εργαλεία τεχνητής νοημοσύνης είναι απαραίτητα για την επίδειξη των δυνατοτήτων και των πιθανών χρήσεων των συστημάτων τεχνητής νοημοσύνης. Ωστόσο, η ποιότητα της παρουσίασής τους και η εμπειρία χρήστη έχουν σημαντική επίδραση στο πόσο καλά μπορούν να επιδείξουν αυτά τα χαρακτηριστικά. The plethora of information available on the internet in today's digital age has led to the development of advanced methods for data extraction and analysis. Web scraping, also referred to as data crawling, is a crucial step in this process because it allows researchers to gather important data from online sources. Nevertheless, a significant number of important applications and toolkits, such as Search Engines, Tools for Scientific Literature, Recommendation Systems, and Science Monitoring, depend on the classification of scientific publications that comply with Field-of-Science taxonomies. Funders, publishers, academics, businesses, and other interested parties can also use it to better arrange scientific literature, compute impact indicators along Science Impact pathways, and identify new areas that can support the development of Science, Technology, and Innovation policy. Due to this, several classification schemes are currently in use for scientific publications, supporting a significant portion of research evaluation. Unfortunately, a lot of the current schemes are domain-specific, consist of only a few levels of granularity, and require ongoing manual work, which makes it challenging to keep up with the quickly changing scientific landscape as new research topics arise. Furthermore, AI toolkits are essential for demonstrating the capabilities and potential uses of AI systems. However, the quality of their presentation and user experience has a major impact on how well they demonstrate these features.
|
---|