ChatGPT progetta insieme ai ricercatori il suo primo “robot contadino”

ChatGPT ha progettato, insieme a un gruppo di ricercatori universitari, il suo primo robot contadino: il braccio robotico è in grado di raccogliere pomodori.  “Volevamo che ChatGpt non progettasse un robot qualunque – osserva Cosimo Della Santina, co-autore dello studio guidato da Francesco Stella – ma uno che fosse davvero utile”. Secondo ChatGPT progettare un robot-contadino per la coltura dei pomodori era la scelta più economicamente vantaggiosa da automatizzare, hanno spiegato i ricercatori. Il gruppo di esperti è composto da ragazzi dell’Università olandese di Delft, tra cui anche due italiani e da una ricercatrice del Politecnico Federale di Losanna.

ChatGPT ha fornito consigli e suggerimenti utili ai ricercatori

Lo strumento di OpenAI, ha aiutato i ricercatori durante tutte le fasi del progetto, che ha portato alla creazione di un braccio robotico in grado di raccogliere i pomodori. Il sistema basato sull’Intelligenza Artificiale ha dato consigli utili e suggerimenti che sono stati seguiti con estrema attenzione dal gruppo di ricerca.

I risultati, sicuramente positivi, sono stati pubblicati sulla rivista Nature Machine Intelligence. I ricercatori sottolineano, però, che al momento è impossibile e impensabile che ChatGpt riesca a progettare un robot in maniera completamente autonoma.

Robot
Immagine | pixabay @alexandra_koch – Cryptohack.it

I suggerimenti di ChatGPT si sono rivelati utili durante la fase di progettazione del robot, poiché “ChatGPT estende la conoscenza del designer ad altre aree di competenza”, come spiega Francesco Stella, studente di dottorato all’università di Delft e primo autore dello studio. L’idea dell’Ia, di “costruire la pinza che raccoglierà i pomodori in silicone o in gomma per evitare che questi vengano schiacciati” è stata un’ottima idea. I ricercatori hanno spiegato: “Tuttavia ci siamo resi conto che il nostro ruolo di ingegneri si è spostato verso l’esecuzione di compiti più tecnici“, “le indicazioni delle Intelligenze Artificiali come ChatGpt possono essere fuorvianti, se non vengono verificate e convalidate, quindi c’è il rischio che portino disinformazione e pregiudizi all’interno della robotica“.

“I bot di intelligenza artificiale – spiega il ricercatore – vengono progettati per generare la ‘risposta più probabile’ a una domanda, quindi esiste il rischio che portino disinformazione e pregiudizi nella robotica”. Infine, “una questione aperta per il futuro del nostro settore – conclude Francesco Stella – è come i sistemi Llm [Large Language Model, come quello che sta alla base di ChatGPT, nda] possano essere usati per assistere gli sviluppatori di robot senza limitare creatività e innovazione necessarie affinché la robotica possa rispondere alle sfide del 21esimo secolo”.

Gestione cookie